23.10.2012, 09:08 Uhr

IBM will Big Data entzaubern

Datenintensive Anwendungen wie eine Echtzeit-Vorhersage von Eisschollen-Bewegungen ist ein plakatives Beispiel für Big Data. In der Realität geht es oft um grundlegendere Fragen.
An der Konferenz «IOD» diskutieren 12'000 Fachleute über Big Data (Bild: IBM)
In der Arktis befinden sich grosse, heute noch nicht ausgeschöpfte Rohstoffvorkommen. Diese Tatsache ist auch dem Energiekonzern ConocoPhillips nicht entgangen. Wenn es die Ölvorkommen in der Arktis erschliessen will, muss sich das US-amerikanische Unternehmen allerdings mit den stetig bewegten Eismassen arrangieren. Bohrungen sind nur drei Monate pro Jahr möglich, anderenfalls besteht die Gefahr, dass herumtreibende Eisschollen die teuren Bohrer beschädigen. Phil Anno, Wissenschaftler bei ConocoPhillips, sah die Möglichkeit, dass Vorhersagen über die Eisbewegungen in der Arktis allenfalls eine längere Bohrzeit bedeuten könnten. Innert fünf Monaten entwickelte Anno gemeinsam mit Ingenieuren von IBM eine Applikation für die satellitengestützte Beobachtung von Schollenverschiebungen. Auf der InfoSphere-Plattform entstand eine Anwendung, die Eis-Bewegungen in einer Förderregion vorhersagen kann. «Die Anwendung verlängert den Bohrzeitraum um einen Monat und spart ConocoPhillips bis zu 300 Millionen US-Dollar», sagte Anno an der IBM-Konferenz «Information On Demand» (IOD).
Das spektakuläre Beispiel für ein Big-Data-Projekt war Grund genug für Robert LeBlanc, den Forscher Anno an die mit rund 12'000 Teilnehmern fast ausgebuchte Konferenz nach Las Vegas einzuladen. LeBlanc, selbst Senior Vice President Middleware Software bei IBM, weiss, dass auch seine Kunden ihre Arktis haben: die hohen Kosten für den IT-Betrieb. Laut den Marktforschern von IDC wenden Unternehmen weltweit auch im nächsten Jahr noch 68 Prozent ihrer IT-Ausgaben für Administration und Management ihrer Systeme auf. Nur eines von fünf Unternehmen allokiert 50 Prozent oder mehr seines IT-Budgets in neue Projekte. Neue Projekte sind aber längst nicht immer so plakativ wie das Eisschollen-«Management», sagt Ken Bisconti, Vice President Enterprise Content Management Products and Strategy bei IBM. Bei Versicherungskonzernen geht es zum Beispiel um das Entdecken von betrügerischen Vorgängen. Für das Case Management arbeitet «Big Blue» auch in der Schweiz mit Kunden zusammen, die Geschäftsabläufe automatisieren wollen. Normale Schadensfälle leitet die Software ohne manuellen Eingriff weiter. Auffällige Fälle sortiert die Software aus. Für diese Ausnahmen haben Fachleute typische Muster identifiziert und Grenzwerte oder Trigger definiert. So soll die Zahl der erforderlichen Prüfungen durch Sachbearbeiter massiv gesenkt werden. Nächste Seite: RoI von Big-Data-Projekten Um die Beherrschbarkeit von Big Data geht es bei einem anderen Schweizer Unternehmen, wie Bisconti im Gespräch mit Computerworld ausführt: Ein weltweit tätiger Konzern speichert aus regulatorischen Gründen heute sämtliche vorgangsrelevanten Informationen und häuft dabei riesige Datenberge an. Das Speichern und Archivieren kostet Geld, allerdings wird gleichzeitig das IT-Budget von Jahr zu Jahr kleiner. Bisconti und seine Kollegen von IBM Schweiz wurden angefragt, ob eine Information unter Berücksichtigung der relevanten Compliance-Vorschriften allenfalls gelöscht werden darf. Die Antwort muss nach den Worten des IBM-Experten berücksichtigen, dass mehr als ein Standort, mehr als ein Rechenzentrum, mehr als eine landesspezifische Vorschrift und auch mehr als eine Compliance-Richtlinie existiert. Aus dem Management grosser Datenbestände wird laut Bisconti somit gleichsam ein Big-Data-Projekt.

Big Data muss sich rechnen

Das Nutzbarmachen von vorliegenden Informationen mithilfe von Business-Analytics-Methoden verfolgt laut IBMs Brad Terrell immer den Zweck der Geschäftsförderung. Im Idealfall kann bei einem Mehr an Aktivitäten in Marketing oder Vertrieb ein direkter Zusammenhang zu einem Plus bei den Business-Transaktionen hergestellt werden. Dann kann umgehend der Return on Investment (RoI) kalkuliert werden, so der Vice President Netezza and Big Data Platform bei IBM. In der geschäftlichen Realität ist der Idealfall meist eine Utopie, weiss auch IBM. Daten sind in Silos eingesperrt, analytische Rechensysteme müssen mühsam an die Speicher angebunden werden. Cloud-Computing-Lösungen sind nur dann rentabel, wenn die Daten nicht aus den Silos in die Wolke befördert werden müssen. Effizienter ist, Analytics via Cloud zu den Daten bringen, sagt Deepak Advani, Vice President Business Analytics Products. Der IBM-Manager arbeitet mit seinen Kollegen an Hybrid-Systemen, die Daten dort analysieren, wo sie gespeichert sind oder entstehen. Unternehmen sollen – auch im Sinne der Compliance – die Wahl haben, ob Kalkulationen lokal oder auch in der Cloud laufen können.



Das könnte Sie auch interessieren