com!-Academy-Banner
Hintergrund

Der Weg der KI führt über neue Prozessoren

von - 14.01.2020
Prozessor
Foto: Connect World / shutterstock.com
Spezial-Chips machen KI-Anwendungen leistungsfähiger - in Rechenzentren und Endgeräten. Aber ob cloudbasiert oder On-Premise: Beides hat seine Vor- und Nachteile.
Intel Neuromorpic System Auschnitt
Vorbild Gehirn: Neuromorphe Chips (im Bild ein Intel-Modell) brechen komplett mit der herkömmlichen CPU-Architektur.
(Quelle: Intel)
Geht es an die praktische Einführung von KI-Technologie, müssen sich Unternehmen zwischen zwei Optionen entscheiden. Sie können für ihre KI-Anwendungen cloudbasierte Services für KI und Machine Learning nutzen - wie die von Amazon, Google oder Microsoft. Oder sie entwickeln ihre KI-Modelle im Unternehmensumfeld und im Eigenbetrieb auf eigener Hardware. Beides hat Vor- und Nachteile.
KI als Service hat den Vorteil, dass die großen Cloud-Provider zahlreiche innovative Technologien entwickelt haben, von denen Anwender sofort profitieren. Der Einstieg ist nicht allzu schwierig und es stehen zahlreiche Tools und Services zur Verfügung. Kosten-, Effizienz- und Compliance-Gründe können allerdings dafür sprechen, KI-Anwendungen im eigenen Haus zu entwickeln.
Weil für KI Unmengen von Daten an die Cloud-Dienstleister übertragen werden müssen, können die oft schmalen Netzwerkbandbreiten und hohe Latenzen die Ausführungseffizienz blockieren. Dies zeigt sich schon beim Inferencing, besonders aber beim Trainieren von Modellen (siehe Kasten auf Seite 96). Viele Firmen wollen oder dürfen zudem die für KI-Modelle notwendigen und oft sensiblen Trainingsdaten nicht nach draußen geben. „Gerade hinsichtlich Cyberrisiken bestehen bei deutschen Unternehmen Bedenken, etwa was den Diebstahl sensibler Daten oder Algorithmen anbelangt“, betont Ralf Esser, Leiter TMT Insights Deutschland bei Deloitte. Als gravierendste Herausforderungen bei KI-Ini­tiativen nannten die für eine Deloitte-Studie befragten deutschen Firmen an erster Stelle datenbezogene Probleme wie Datenschutz.

Die Rolle von GPUs

Es gibt also einige Gründe, eine eigene KI-Infrastruktur aufzubauen. Doch auch hier warten große Herausforderungen. Das Training der Modelle beim Machine Learning ist äußerst rechenintensiv. Server-, Storage- und Netzwerk-Infrastrukturen müssen die riesigen dafür notwendigen Datenmengen und die anspruchsvollen Machine-Learning-Verfahren bewältigen können. Ein Training auf gängiger serieller Hardware kann sehr lange dauern oder überhaupt nicht mehr in akzeptabler Zeit durchführbar sein. Werden die Berechnungen verteilt und gleichzeitig ausgeführt, reduziert sich der zeitliche Aufwand immens. Hier kommen Graphic Processing Units (GPUs) ins Spiel.
Wie sich in den letzten Jahren herausstellte, eignen sich die GPUs nicht nur für Grafikaufgaben, sondern auch für die beschleunigte Berechnung neuronaler Netze. Benötigt ein kleiner Datensatz auf einer klassischen CPU eine Trainingszeit von drei bis vier Minuten, so braucht er bei Verwendung einer GPU nur einige Sekunden. Bei Deep Learning, wo der Trainingsaufwand besonders hoch ist, können sich Trainingszeiten mit großen Datensätzen von mehreren Wochen auf wenige Tage verringern. Grafikprozessoren nehmen deshalb heute bei KI eine zentrale Rolle ein. Der Markt bietet inzwischen auch speziell für KI optimierte Grafikkarten an. Dabei können Hunderte von Recheneinheiten parallel Berechnungen durchführen und bringen es so auf eine Rechenleistung von weit über 100 TeraFLOPS. Die führenden Server-Hersteller nutzen heute oft Tesla- oder Volta-GPUs von Nvidia, um Systeme für KI- und analytische Anwendungen zu optimieren. Viele Hersteller bauen etwa in ihre x86-Server Volta-GPUs als „KI-Beschleuniger“ ein - mit nativer GPU-Unterstützung über eine direkte Verbindung zum Mainboard. 
Training vs. Inferencing
Die beiden Bereiche „Training“ und „Inferencing“ müssen deutlich unterschieden werden: Beim Training lernt ein Machine-Learning-System aus vielen Beispieldaten. Die Algorithmen bauen dabei ein statistisches Modell auf, das auf den Trainingsdaten beruht und diese verallgemeinert. Nach Abschluss der Lernphase kann das System auch unbekannte Daten beurteilen. Eine Quelle für Trainingsdaten können zum Beispiel IoT-Daten sein, mit denen Datenwissenschaftler maschinelle Lernmodelle für viele Anwendungsfälle trainieren können - von der Fehlererkennung bis hin zur Verbraucher­information. Wegen der vielen Daten und aufwendigen KI-Algorithmen kann das Training sehr lange dauern. 
Das Inferencing besteht hingegen lediglich aus Schlussfolgerungen, die mit Hilfe eines fertigen Modells und eingehender Daten gezogen werden. Ein bereits trainiertes Modell wird auf neue Daten angewendet, um Klassifizierungen oder Vorhersagen zu treffen. In der Produktion werden beispielsweise Fertigungsteile fotografiert und ein (bereits trainierter) Algorithmus klassifiziert die Bilder in gute Teile und Ausschussware.
Verwandte Themen