Wer das Potenzial von KI voll ausschöpfen will, muss ihre Vorteile selbst für die anspruchsvollsten Anwendungsfälle nutzen können. Doch obwohl viele von Edge-Computing für KI reden, haben bislang nur wenige Unternehmen die Infrastrukturkapazitäten aufgebaut, die erforderlich sind, um KI-Anwendungen in der Nähe ihrer Kunden, Mitarbeitenden und Endbenutzer auszuführen. Die Leistungsvorteile von Edge-KI sind erheblich und der zusätzliche Nutzen ist überzeugend. Viele betrachten sie als entscheidenden Schritt auf dem Weg zur Echtzeit-Inferenz. Die wichtigsten Herausforderungen sind Konnektivität und Skalierung. Der Lebenszyklus von KI-Anwendungen erfordert den Transfer von Daten, Modellen und Telemetrie in einem erheblich größeren Umfang als bei herkömmlichen Anwendungen. Das Grundproblem bei der Skalierung von Edge-Umgebungen ist die große Anzahl an Standorten, die involviert sind. Dies kann zwar durch sorgfältige Planung und Implementierung gelöst werden, aber vielen Verantwortlichen werden das Ausmaß und die Auswirkungen des Problems gerade erst bewusst.
Die kürzlich von 451 Research im Auftrag von Verizon durchgeführte Studie „Verizon AI at Scale“ gibt Aufschluss über aktuelle Edge-KI-Bereitstellungen und über die Ziele, die Unternehmen in Zukunft erreichen möchten. Edge-Umgebungen sind für die meisten ein neues Infrastrukturelement: Nur ein Drittel der Befragten nutzen Edge Computing, und nur 2 % führen KI-Anwendungen am Edge aus. In breiter angelegten Marktstudien ist es mitunter sogar schwierig, sich auf eine Definition des Begriffs „Edge“ zu einigen. Dennoch zweifelt bemerkenswerterweise kaum jemand daran, dass ein Großteil des zukünftigen Mehrwerts von KI in Edge-Umgebungen erzielt werden wird.
Ein Faktor, der die Entwicklung von Edge-KI bislang bremst, ist die Selbstbeschränkung seitens der Unternehmen. Sie suchen nur dort nach möglichen KI-Anwendungsszenarien, wo die Kapazität und Konnektivität zur Unterstützung von KI-Anwendungen bereits vorhanden sind. Dadurch entgehen ihnen wichtige Chancen, sich Wettbewerbsvorteile zu verschaffen – und die Befragten sind sich dessen bewusst. Der größte Teil der KI-Arbeit wird beim Inferenzieren geleistet, und das sollte idealerweise dort stattfinden, wo die Ergebnisse genutzt werden. Wenn es auf eine schnelle Reaktion ankommt, sind Edge-Umgebungen unschlagbar. Die Befragten nannten viele Anwendungsszenarien, die von Echtzeit-Inferenz am Edge profitieren würden. Im Gesundheitswesen stehen klinische KI-Anwendungen und die Triage in der Notfallversorgung ganz oben auf der Liste. In der Fertigung landeten ausgefeilte Qualitäts- und Prozesskontrollen auf Rang 1. Umfrageteilnehmer aus Versorgungsunternehmen erwähnten die verteilte Netzsteuerung und den Infrastrukturbetrieb. In all diesen Fällen müssen die KI-Funktionen dort gehostet werden, wo die Daten generiert werden.
Zur effektiven KI-Nutzung in Edge-Umgebungen ist mehr Rechenleistung und bessere Konnektivität erforderlich als für konventionelle Edge-Anwendungen. Anwendungsszenarien wie das auf maschinellem Lernen basierende maschinelle Sehen in der Fertigung sind weit verbreitet und funktionieren auch mit eingeschränkter Konnektivität. Die Modelle werden in der Regel nur in größeren Abständen neu trainiert und verschiedene Standorte arbeiten oft relativ unabhängig voneinander, sodass zwischen ihnen kaum Daten ausgetauscht oder Prozesse koordiniert werden müssen. Doch wenn eine KI-Anwendung in einem ähnlichen Umfeld Adaptive Analytics, Lieferkettenoptimierung oder Ähnliches bieten sollte, wäre eine weitaus bessere Konnektivität erforderlich, um die Koordination zwischen den Standorten und die operativen Aspekte der Bereitstellung zu unterstützen. Während des Betriebs erfasste Telemetriedaten müssten zur Überwachung und zur Weiterentwicklung der Modelle in das Kernnetzwerk übertragen und aktualisierte Modelle regelmäßig an die Edge-Standorte verteilt werden. Die Umfrageteilnehmer äußerten Bedenken, dass die Praxistauglichkeit bestimmter Anwendungen durch die Latenz bei der Übertragung von KI-Ergebnissen eingeschränkt werden könnte. Dieses Problem könnte durch die KI-Bereitstellung vor Ort vermieden werden.
Zudem können Edge-KI-Bereitstellungen zusätzliche Infrastrukturvorteile mit sich bringen. Durch vor Ort durchgeführte Analysen werden rechenintensive Prozesse verteilt und die Ressourcen im Kernnetzwerk entlastet. KI-Engines am Edge können auch dazu beitragen, das Volumen und die Kosten der Datenübertragung an Rechenzentren oder in die Cloud zu reduzieren, indem sie die am Edge generierten Rohdaten in Ereignisse und Metadaten umwandeln.
Zur Skalierung der Betriebsprozesse für Edge-KI-Anwendungen ist Automatisierung erforderlich, zum Beispiel für die Bereitstellung und das Lebenszyklusmanagement von Modellen. IT-Teams wären mit der Bereitstellung und Sicherung der Modelle an zahlreichen Standorten überfordert. Viele Unternehmen streben eine stärkere Automatisierung an, haben dieses Ziel aber noch nicht erreicht. In diesem Zusammenhang ist erwähnenswert, dass die Umfrageteilnehmer Automatisierung einerseits als einen der Vorteile, die sie sich von KI versprechen, und andererseits als eine notwendige Voraussetzung für den erfolgreichen Einsatz von KI nannten. Das zeigt, wie wichtig ein umfassender Ansatz für die Bereitstellung von Edge-KI ist, der alle Aspekte abdeckt.
Die Vorteile von Edge-KI sind die Investition in eine sorgfältige Planung wert. Der Aufbau einer Infrastrukturbasis mit der nötigen Konnektivität und betrieblichen Skalierbarkeit kann erheblich dazu beitragen, dass Edge-KI-Anwendungen erfolgreich implementiert werden und die erwarteten Ergebnisse liefern.

Eric Hanselman, Principal Research Analyst, 451 Research
Eric Hanselman ist der Chief Analyst bei S&P Global Market Intelligence. Er koordiniert Branchenanalysen über das breite Portfolio der Researchdisziplinen in den Bereichen Technologie, Medien und Telekommunikation hinweg und verfügt über ein umfassendes, praxisorientiertes Verständnis einer Reihe von Themenbereichen, darunter Informationssicherheit, Netzwerke und Halbleiter sowie deren Überschneidungen mit Bereichen wie SDN/NFV, 5G und Edge Computing.
Eric unterstützt die Kunden von S&P Global, wenn es darum geht, sich in diesen turbulenten Gewässern zurecht zu finden und potenzielle Ergebnisse zu nutzen. Er ist Mitglied des Institute of Electrical and Electronics Engineers, Certified Information Systems Security Professional und VMware Certified Professional. Häufig kann man ihn als Redner auf führenden Branchenkonferenzen erleben, er moderiert aber auch den Technologie-Podcast Next in Tech.
Entdecke mehr
Stellen Sie KI in den Dienst Ihres Unternehmens
Informieren Sie sich über Strategien für die sichere Implementierung und Verwaltung von KI, um sie zur Steigerung der Effizienz und Produktivität sowie zur Förderung von Innovationen und Wachstum einzusetzen.
Teil 1 Aufbau einer skalierbaren KI-Infrastruktur
Erfahren Sie, warum eine skalierbare, sichere und modulare KI-Infrastruktur für die erfolgreiche Einführung in Unternehmen unerlässlich ist und wie Hybridmodelle dazu beitragen, den sich wandelnden Anforderungen gerecht zu werden.
Teil 2 KI-Datensicherheit: Anpassung an neue Risiken
Erfahren Sie, wie KI die Datensicherheit verändert. Entdecken Sie neue Risiken, sich entwickelnde Bedrohungsmodelle und Strategien zum Schutz sensibler Daten in KI-Umgebungen.