Microsoft 05.03.2013, 18:43 Uhr

Big Data mit Excel analysieren

Excel macht steile Karriere und analysiert riesige Hadoop-Datenvolumina. Pusht Microsoft das verbreitete Spreadsheet zum universalen Big-Data-Frontend?
Auf Microsofts Big-Data-Pressekonferenz auf der CeBIT in Hannover ging es natürlich um das gesamte Server- und Analyse-Aufgebot aus Redmond: SQL Server 2012, Windows Server, WIndows Azure. Der neue SQL Server 2012 etwa fungiert als paralleles Data Warehouse, kann also strukturierte und unstrukturierte Daten gleichermassen analysieren. Unstrukturierte Sensordaten, Mails und Texte gelten als Schatzgrube für Datenanalysten, die Unternehmen bislang noch viel zu selten nutzen. Und auf dieses Geschäft hat auch Microsoft ein Auge geworfen. Aufmerksamkeit erregte jedoch ein eher kleines Add-on für Excel, der sogenannte " Data Explorer", von dem Microsoft auf der CeBIT eine Preview präsentierte. "Wir machen damit die Nutzung einfacher", sagte Hans Wieser, Product Manager SQL Server bei Microsoft. Mit dem Data Explorer greift Excel auf unstrukturierte, Experten sagen semi-strukturierte, Hadoop-Daten zu. Laut Wieser arbeitet der Explorer ähnlich wie ein HTML-Parser, der mithilfe von Tags zum Beispiel in einem Web-Browser Tabellen aufbaut. Typischerweise bestehen Hadoop-Daten aus sogenannten Key-Value-Paaren, und die Datentrennzeichen dazwischen erkennt das aufgerüstete Excel und aggregiert die Paare. Mit einem sogenannten Verdichtungsdienst (von Microsoft) lassen sich ausserdem Hadoop-Daten, die in der Regel viele Petabytes gross sind, selektieren und damit verkleinern. Damit wird Excel zum Frontend für Big-Data-Analysen.

Excel-Konnektor: Nichts Besonderes, aber...

CW sprach mit Carsten Bange vom Business Application Research Center (BARC). Der neue Data Explorer sei ein Hive-Konnektor für Hadoop, präzisiert Bange. Unstrukturierte Daten werden von Hadoop/Mapreduce analysiert, dann in einem zweiten Schritt vorstrukturiert und danach zum Beispiel im Data Warehouse Hive abgelegt (Hive ist Open-Source). Das machen Viele und sei noch nichts Besonderes. Allerdings werden viele BI-Tools zusammen mit Excel eingesetzt, und auch Microsofts SQL Server gelte häufig als präferierte Plattform. Will Microsoft sein Excel - wie Gartner vermutet - zum universalen Analytics-Frontend pushen, das nun auch mit Big Data zurechtkommt? Zwar ist Redmond kein dedizierter BI-Anbieter, aber viele Anwender nutzen den Tabellenkalkulator als BI-Tool, und werden den Big-Data-Zusatz freudig begrüssen.

Gutes Marketing: IBM führt

In der Wahrnehmung der Käufer aber steht nicht Microsoft, sondern IBM ganz oben. In einer vom BARC durchgeführten Befragung unter 110 DACH-Unternehmen fiel zum Thema Business Intelligence/Analytics 59 Prozent zuerst IBM ein. In der ANbieterwahrnehmung der Kunden kam Oracle auf 48 Prozent, SAP auf 44 und Microsoft zusammen mit Teradata auf 38 Prozentpunkte (Mehrfachantworten waren erlaubt).  IBM habe sich sehr über den Markterfolg von Oracle geärgert und habe daher sehr viel Geld in Marketingmassnahmen zum Thema Big Data gesteckt, erklärt sich Bange das gute Abschneiden von Big Blue. Das intensive Marketing trägt Früchte, schlägt sich in einem hohen Bekanntheitsgrad nieder. Der führt zwar nicht notwendig zu hohen Abverkäufen, ist aber eine gute Voraussetzung dafür.

Klassische Tools am Verbreitetsten

Kunden agieren eher konservativ, so ein weiteres Ergebnis der vom BARC durchgeführten Kundenbefragung: Zwar wollen Unternehmen in Big-Data-Lösungen investieren, vor allem die Geschäftsabteilungen Controlling, Marketing und Vertrieb drängen darauf. Das am häufigsten genutzte Big-Data-Tool sind mit 79 Prozent der Nennungen jedoch klassische relationale Datenbanken und Standard-BI-Werkzeuge (68 Prozent). Die Spezialisten, also analytische Datenbanken werden erst von 27 Prozent der Teilnehmer produktiv eingesetzt. Big Data Appliances kommen punkto "bereits im Einsatz" auf 15 Prozent, Hadoop auf 14 und Hive auf 13 Prozentpunkte. Dem Hype um unstrukturierte Daten zum Trotz analysieren Unternehmen am weitaus häufigsten immer noch ihre Transaktionsdaten (70 Prozent), und die sind strukturiert. Relationale Datenbanken reichen für diesen Zweck als Werkzeug völlig aus. Aber die Big-Data-Welle rollt, scheint an Momentum zu gewinnen. Sensorische Daten werden immerhin bereits von 44 Prozent und unstrukturierte Daten (Dokumente, Videos, Bilder) von 40 Prozent der vom BARC Befragten analysiert (n = 200).



Das könnte Sie auch interessieren