Databricks 07.07.2022, 14:23 Uhr

Neue Funktionen für Databricks Lakehouse

Neue Funktionen der Data-Lakehouse-Plattform sind unter anderem Data-Warehousing- und Data-Governance-Funktionen, ein Marketplace und die Data-Cleanrooms-Funktionalität. Dazu kommen Data-Engineering-Optimierungen und Verbesserungen im ML-Lebenszyklus.
Ali Ghodsi, Mitbegründer und CEO von Databricks
(Quelle: databricks.com)
Databricks hat die Weiterentwicklung der Databricks-Lakehouse-Plattform vorgestellt. Zu den neuen Funktionen gehören eine verbesserte Data-Warehousing-Leistung und -Funktionalität, erweiterte Data Governance, Innovationen für die gemeinsame Nutzung von Daten, darunter ein Marktplatz für Analysen und Daten-Cleanrooms für eine sichere Zusammenarbeit, automatische Kostenoptimierung für ETL-Operationen und Verbesserungen im Lebenszyklus von maschinellem Lernen (ML).
Ali Ghodsi, Mitbegründer und CEO von Databricks: «Unsere Kunden möchten Business Intelligence, KI und maschinelles Lernen auf einer Plattform durchführen können, auf der sich ihre Daten bereits befinden. Dies erfordert erstklassige Data-Warehousing-Funktionen, die direkt auf ihrem Data Lake ausgeführt werden können.»
Hier einige der vom Hersteller aufgelisteten neuen Data-Warehousing-Funktionen:
  • Databricks SQL Serverless, das in der Vorschau auf AWS verfügbar ist, soll sofortige, sichere und vollständig verwaltete elastische Rechenleistung für verbesserte Leistung zu geringeren Kosten bieten.
  • Photon, die Abfrage-Engine für Lakehouse-Systeme, wird in den kommenden Wochen allgemein auf Databricks Workspaces verfügbar sein und soll damit die Reichweite von Photon auf der Plattform weiter ausbauen.
  • Open-Source-Konnektoren für Go, Node.js und Python sollen es jetzt noch einfacher machen, von operativen Anwendungen aus auf das Lakehouse zuzugreifen.
  • Databricks SQL CLI soll es Entwicklern und Analysten neu ermöglichen, Abfragen direkt von ihren lokalen Computern aus auszuführen.
  • Databricks SQL bietet jetzt Query Federation und damit die Möglichkeit, Remote-Datenquellen wie PostgreSQL, MySQL, AWS Redshift und andere abzufragen, ohne dass es nötig sei, die Daten zunächst aus den Quellsystemen zu extrahieren und zu laden.
Mehr über die Databricks-Lakehouse-Plattform erfahren Sie auf dieser Seite.

Bernhard Lauer
Autor(in) Bernhard Lauer



Das könnte Sie auch interessieren