Firmenfachbeitrag 21.07.2020, 09:02 Uhr

Eine durchgehende Datenpipeline beschleunigt den Fortschritt

KI ist ein wesentlicher Treiber für die Automobilindustrie, insbesondere bei der Entwicklung autonomer Fahrzeuge. Die grösste Herausforderung besteht darin, eine durchgehende Datenpipeline vom Edge bis in die Cloud sowie ein konsistentes Datenmanagement zu etablieren.
Die NetApp Data Fabric unterstützt Automobilhersteller bei der Einrichtung KI-basierter Systeme zur Entwicklung autonomer Fahrzeuge
(Quelle: (c) MarkoAliaksandr www.fotosearch.com Stock Photography)
Mit künstlicher Intelligenz (KI) lassen sich komplexe Aufgabenstellungen im Alltag lösen, bei denen herkömmliche Algorithmen versagen. Zum Einsatzspektrum von KI im Automobilsektor gehören insbesondere Fahrassistenzsysteme (Advanced Driver-Assist Systems, kurz: ADAS), die den Weg zu autonom fahrenden Fahrzeugen bereiten. Einblicke in den Entwicklungsstand der KI im Automobilsektor verdeutlichen, dass die Grundlage für eine erfolgreiche Adaption stets eine geeignete Datenarchitektur und eine erhebliche Rechenkapazität bilden.

Hochautomatisierte Helfer im Auto

Die US-amerikanische National Highway Traffic Safety Administration verwendet für die Darstellung der unterschiedlichen Entwicklungsstufen vom Fahrerassistenzsystem bis zum komplett autonomen Fahren folgende Skala:
  • Stufe 1: assistiert
  • Stufe 2: teilautomatisiert
  • Stufe 3: hochautomatisiert
  • Stufe 4: vollautomatisiert
  • Stufe 5: autonom
Heute decken die meisten ADAS-fähigen Autos die Stufen 1 bis 3 ab. Zu den gängigen Systemen zählen Adaptive Geschwindigkeitsregelung, Erkennung des toten Winkels, Parkassistenz, Spurverlassenswarnsysteme, Reifendruck-Überwachungssysteme, Autonome Notbremsung und Adaptives Frontlicht. Trainierte KI-Software und Sensoren weisen ADAS-ausgerüstete Fahrzeuge zudem an, einen Sicherheitsabstand zu den umliegenden Fahrzeugen einzuhalten. Zusätzliche Schichten von neuronalen Netzen befähigen ein ADAS überdies, nach dem Scannen des Fahrergesichts zu erkennen, ob der Fahrer müde oder abgelenkt ist. Das System warnt in kritischen Situationen und reduziert bei Gefahr die Geschwindigkeit des Autos. Andere KI-gestützte ADAS-Anwendungen sammeln und analysieren Fahrerdaten, um ein personalisiertes Feedback zu geben.
Die Entwicklungsstufen des autonomen Fahrens gemäss der US-amerikanischen National Highway Traffic Safety Administration
Quelle: SAE International

Das Entwickeln einer Datenpipeline

Je mehr Daten in ein KI-System fliessen und dieses trainieren, umso besser werden die Ergebnisse. Generell interagieren bei einem KI-gestützten ADAS Sensoren, Prozessoren, Algorithmen, Mapping-Lösungen und Aktoren, um die Ebenen Datenerfassung und -verarbeitung, Datenfusion und Entscheidungsfindung sowie das Einleiten von Massnahmen zu realisieren. Die Anzahl der Systeme im Auto wächst, weshalb der Rechenbedarf steigt. Das Datenmanagement muss dafür sorgen, dass das Erfassen, Auswerten und Speichern effizient erfolgt – über das Entwickeln einer Datenpipeline.
Damit eine Datenpipeline funktioniert, gilt es einige Anforderungen zu erfüllen. So findet die Datenaufnahme in der Regel am Rand (Edge) eines Systems statt, etwa via Sensoren im Auto. Dort beginnt auch die erste Datenkonsolidierung, die in erster Linie Rechenleistung erfordert. Die Datenvorbereitung, das Normalisieren der Daten für das jeweilige Training, geschieht in einem Data-Lake. Der wird entweder in der Cloud als S3-Tier oder vor Ort als File- oder Objektspeicher betrieben. Nach der Bereitstellung der Daten vom Data-Lake im Trainingscluster sowie dem Hinzufügen und Kombinieren mit externen Datensätzen startet das Training für die KI. Zum Einsatz kommen häufig Server mit Grafikprozessoren (GPUs), um die Ausbildungsprozesse zu parallelisieren. Diese Parallelisierung führt zu einer 10-fach höheren TCO als bei herkömmlichen CPU-basierten Servern.

Grosser Trainingsaufwand

Momentan wird KI-Software darauf trainiert, andere Fahrzeuge, Fussgänger, Verkehrsschilder, Ampeln, Hindernisse und mehr zu erkennen. Sie kann auch externes Verkehrsverhalten und Gefahren vorhersagen. Damit beispielsweise die Autopilotsoftware von Tesla funktioniert, ist ein Ökosystem von acht Surround-Kameras, zwölf Ultraschallsensoren und einem vorwärts gerichteten Radar nötig. Diese Geräte speisen ihre Daten in einen Bordcomputer ein. Danach werden die Daten in die Cloud übertragen, wo maschinelles Lernen (ML) die Software kontinuierlich dahingehend verbessert, dass diese schneller und genauer entscheidet. Jetzt und in der Zukunft muss ein Hochleistungsrechner im Auto stecken, der über genügend Rechen- und Speicherkapazität verfügt, um Entscheidungen in Echtzeit zu treffen.
Alles was über die Stufe 2 und 3 hinausgeht, erfordert die Entwicklung mehrerer KI-Modelle, die jeweils komplexe neuronale Netze aufweisen. Wie gross der Trainingsaufwand der ML-Systeme ist, verdeutlichen ein paar Zahlen:
  • Ein Testwagen, der 8 Stunden pro Tag und 250 Tage pro Jahr fährt, erzeugt 2000 Stunden Videodaten pro Jahr.
  • Fünf Kameras, die 30 Bilder pro Sekunde aufzeichnen, produzieren eine Milliarde Bilder pro Jahr.
  • Bei einer Kameraauflösung von 2 Megapixeln erzeugt jedes Auto etwa 1 TB Daten pro Stunde oder 2 PB pro Jahr.
Etwa ein Drittel der Daten wird bereinigt und für das Training gelabelt. Einige Millionen Bilder sind für das Training einfacher neuronaler Netze nötig. Bei komplexen Netzwerken steigt die Anzahl auf fünf bis acht Millionen Bilder.

Wiederholender Workflow

Die Entwicklung von KI-Software für autonomes Fahren ist ein iterativer Workflow, der die Schritte Datenerfassung, -verarbeitung, Modelltraining, Validierung und Verifizierung umfasst. Die Optimierungs- und Vorhersagegenauigkeit, die sich mit dem Modell erreichen lässt, hängt von der Qualität der unveränderlichen Datensätze, den angewandten Techniken für das Multi-GPU-Training und der Präzision ab. Das Modelltraining erfordert eine massive Rechenkapazität, und einen Hochleistungsspeicher, auf den der gesamte Compute-Cluster zugreifen kann.
Für die Validierung und Verifizierung finden sowohl Tests auf Komponentenebene an realen Daten als auch Simulationen von Fahrszenarien und -bedingungen statt. Simulationen und Tests sind entscheidend, um den gesamten Hardware- und Softwarestapel zu validieren, bevor dieser in einem Testfahrzeug auf der Strasse eingesetzt wird.

Durchgehende Datenschicht für Entwickler

Entwickler für KI-Software für das autonome Fahren benötigen einen durchgehenden Data-Layer, damit die Daten vom Edge über das eigene Rechenzentrum bis hin zur Cloud zur richtigen Zeit, im richtigen Format und mit den richtigen Eigenschaften zur Verfügung stehen. Eine wichtige Rolle spielt dabei eine Kontrollebene, damit man die Applikationen, die typischerweise container-basiert sind, vollautomatisiert entwickeln und installieren kann. Über diese Kontrollebene erfolgt auch die Integration der Speicherorte und Datenquellen in die Applikation. Das wollen Entwickler als «Infrastructure-as-a-code» direkt aus der Anwendung tun. Diese agile Bereitstellung unterstützen offene APIs.

In der KI-Anwendung Gas geben

Der Entwicklungsstand von Fahrassistenzsystemen und autonomem Fahren macht deutlich: Der Automotive Sektor benötigt für verschiedene Stufen des KI-Einsatzes global übergreifende sowie industriespezifische IT-Services, die es erlauben, schnell eine funktionsfähige und skalierbare Dateninfrastruktur aufzubauen.
Die NetApp ONTAP KI-Architektur, die auf NVIDIA-DGX-Supercomputern und NetApps All-Flash-Storage basiert, eliminiert die Komplexität des Designs. Unternehmen können so klein anfangen und ihre Systeme unterbrechungsfrei erweitern, während sie gleichzeitig Daten vom Edge (Auto) zum Kern in die Cloud und zurück intelligent managen. Die integrierten offenen Schnittstellen (API) befähigen Entwickler dazu, gleich Infrastructure-as-a-code zu erzeugen und anzuwenden. Denn die Software-Ingenieure müssen ihre massgeschneiderte Umgebung erschaffen und betreiben können, um agil neue KI-Applikationen zu entwickeln. Das schliesst insbesondere Datenmanagement-Lösungen, welche die ganze Datenpipeline abdecken, sowie Container-Lösungen für die App-Entwicklung ein. Dazu trägt wesentlich die NetApp Data Fabric bei, die verschiedene, dynamische und verteilte Datenquellen oder Endpunkte integriert. Der Anwender hat stets die vollständige Kontrolle. Zudem sind zu jedem Zeitpunkt die Sicherheit und der Schutz der Daten gewährleistet.
Unter diesen Gegebenheiten kann die Autoindustrie noch mehr Gas in der gezielten KI-Anwendung geben.
Zum Autor
Christian Ott
NetApp
Christian Ott ist Senior Manager, Solution Engineering Global Automotive bei NetApp EMEA.
Zum Unternehmen: NetApp ist Marktführer im Bereich Cloud Data Services und ermöglicht Unternehmen weltweit, das Potenzial ihrer Daten auszuschöpfen. 
Weitere Informationen: www.netapp.ch



Das könnte Sie auch interessieren