Edge- und Fog-Computing

So werten Sie latenz­kritische Daten aus

Foto: Panchenko Vladimir / Shutterstock.com
Sensorikgestützte Anwendungen fordern garantierte Latenzzeiten für kritische Daten. Edge- und Fog-Computing sorgen im Internet der Dinge für einen flotten Datenaustausch.
Neudaten
Quelle: IDC/Seagate
Mit dem Aufkommen hoch entwickelter Sensorik, des maschinellen Lernens und kognitiver Systeme nimmt die Netzwerkkante an Relevanz zu. Immer mehr Unternehmen wollen aus dem IoT- und IIoT-Datenreichtum neue Werte schöpfen. Doch gerade im Bereich der sprichwörtlichen „letzten Meile“ besteht dringender Handlungsbedarf. „Das Internet der Dinge sowie rechenintensive Analytics-Anwendungen benötigen häufig extrem kurze Latenzzeiten“, erläutert Martin Kipping, Director International IT-Projects beim IT-Infrastrukturanbieter Rittal.
Cyber-physische Systeme (CPS), kleine Netzwerke aus Sensoren und Computern, erfassen kontinuierlich eine Vielzahl von Sensor-Messwerten in winzigen Datenpaketen. Bohrtürme zum Beispiel erzeugen so bereits heute 500 GByte Daten pro Woche, ein Flugzeug rund 20 TByte pro Minute.
Ähnliche Entwicklungen nehmen auch in anderen Wirtschaftssparten an Fahrt auf. Selbst im Straßenverkehr entstehen mittlerweile massive Datenmengen. Ein vernetztes Fahrzeug funkt jede Stunde rund 25 GByte an Daten in die Cloud, etwa Informationen über die gefahrene Strecke oder aktuelle Verkehrsbedingungen.
Der Datenverkehr durch den Frankfurter DE-CIX-Knoten, den größten Internetknoten Deutschlands, wächst um durchschnittlich 73 Prozent pro Jahr. Die Schere zwischen der Trendlinie für Leistungsspitzen und der für die Durchschnittsbelastung klafft dabei immer stärker auseinander. Die Explosion an Daten bringt die Internet-In­frastruktur durch unvorhersehbare Bedarfsschwankungen zunehmend ins Stottern. Der Datendruck sei „der wichtigste Treiber für IT und Telekommunikation“, betont der operative Leiter der IT-Division von T-System Stefan Bucher in einem Interview mit „DataCenter Insider“. Die weltweite Datenmenge soll bis 2025 gegenüber 2016 um 1000 Prozent steigen, prognostizieren IDC und Seagate. Der Gesamtumfang an Neudaten soll dann die 163-Zettabyte-Marke übertreffen.

Die Grenzen der Cloud

Zur Auswertung und Langzeitspeicherung müssen die gesammelten Daten bisher in die Cloud oder in ein unternehmenseigenes Rechenzentrum übertragen werden, wo die Rechenleistung und die vorhandenen Speicherkapazitäten den Einsatz von Big-Data-Analysewerkzeugen und KI-Anwendungen ermöglichen. Dafür müssen die Datenströme aber erst einmal im Rechenzentrum ankommen. Die großen Entfernungen, die die Signale der Sensorik in den Endgeräten auf dem direkten Weg in die Cloud überbrücken müssen, resultieren in einer unvermeidlichen Netzwerklatenz und gehen mit unerwarteten Verbindungsstörungen einher. Folge: Die Daten stauen sich, Betriebsabläufe stocken, die Kosten steigen.
Marko Vogel
Director Security Consulting bei KPMG Deutschland
 
„Der zentrale Cloud-Server erhält beim Fog-Computing nur die wichtigsten IoT-Daten. Den Rest präparieren kleinere Netzwerkkomponenten.“
CPS-Systeme können auf Anweisungen aus der Cloud nicht warten – erst recht nicht, wenn Menschenleben im Spiel sind. Ein klassisches Beispiel dafür sind autonome Fahrzeuge. Sie setzen Fähigkeiten zur Echtzeitkommunikation der Sensorik voraus und diese steht und fällt mit der Netzwerklatenz. Konventionelle IT-Architekturen wie die Cloud ziehen da den Kürzeren. Der Weg zum Kern-Rechenzentrum oder gar zur Public Cloud ist viel zu weit.
Alle Daten in der Cloud aufzubereiten würde zu viel Zeit und Geld kosten. Die Compute-Leistung muss daher näher an die Netzwerkkante heranrücken. So könnten Funktionen dort ablaufen, wo sie benötigt würden, erklärt Michael Stiller, wissenschaftlicher Mitarbeiter im Bereich Industriekommunikation beim Fraunhofer-Institut für Eingebettete Systeme und Kommunika­tionstechnik (ESK). Für Unternehmen gilt es also, die Datenflut direkt am „Rand“ des Netzwerks zu bändigen. Die Frage lautet nur: Wie?
Verwandte Themen