Teil 2: Datensicherheit in einer KI-gestützten Welt
Autor: Eric Hanselman, S&P Global Market Intelligence
Die Anpassung von Bedrohungsmodellen an neue Umgebungen ist eine Aufgabe, die bei Datensicherheitsprofis nahezu kontinuierlich ansteht. Darüber hinaus bringt künstliche Intelligenz eigene Herausforderungen mit sich, zu deren effektiver Bewältigung neue Ansätze erforderlich sind. Aktuelle Untersuchungen haben gezeigt, dass es häufig tote Winkel gibt, insbesondere in Unternehmen mit ausgereiften Datensicherheitsprogrammen. Die meisten Unternehmen in stark regulierten Branchen verfügen über Datensicherheitsprogramme, die sich in traditionellen Anwendungsbereichen bewährt haben. KI erfordert jedoch ein erweitertes Bedrohungsmodell, das auch die neuen Bereiche abdeckt, in denen Daten gefährdet sein könnten und wo Schutzmaßnahmen implementiert werden müssen.
Eine häufige Herausforderung jeder neuen Technologie besteht darin, ihre Auswirkungen auf die Sicherheit vollständig zu verstehen. Allzu oft versuchen Unternehmen, ihre bisherige Sicherheitsinfrastruktur auf neue Umgebungen auszuweiten. Bei der Migration von Arbeitslasten in die Cloud wurde vielerorts versucht, herkömmliche Sicherheitstools anzupassen, doch die Skalierung auf Cloud-Niveau, Automatisierung und Abstraktionen erwiesen sich als zu große Herausforderungen. Entwickler konnten unter Missachtung der vor Ort geltenden Leitlinien auf Cloud-Infrastrukturen zugreifen, wodurch neue Sicherheitsrisiken entstanden. KI stellt uns vor ähnliche Herausforderungen, daher ist es besonders wichtig, aus früheren Umstellungen zu lernen. Die Technologie wurde in Unternehmen nicht nur sehr schnell eingeführt, sondern wird inzwischen auch von sehr verschiedenen Anwendern genutzt.
Die von 451 Research im Auftrag von Verizon durchgeführte Studie „Verizon AI at Scale“ deckt aufschlussreiche Kontraste auf. In Interviews äußern sich Führungskräfte besorgt über durch KI verursachte Sicherheitsrisiken, aber viele erwarten, dass die lokale Bereitstellung und die bisherigen Datenschutzvorkehrungen diese beherrschbar machen. Dies steht im Gegensatz zu KI-Implementierern, die davon ausgehen, dass Sicherheitsfunktionen in den nächsten zwei Jahren den größten Änderungsbedarf in ihrer Infrastruktur verursachen und sogar noch den Bedarf an Rechen-, Speicher- und Netzwerkleistung übertreffen werden. Sicherheit ist die einzige Kategorie, in der alle Führungskräfte und KI-Implementierer mit Veränderungen rechnen, und landete beim Ausmaß der erwarteten Veränderungen auf Platz 1.
Um von den Vorteilen der KI zu profitieren und gleichzeitig Risiken im Griff zu behalten, müssen Unternehmen ihre Sicherheitsplanung ausweiten. Anders als bei der Absicherung einer Datenbank erfordert die Kontrolle des Zugriffs und der Autorisierungen für KI ein Verständnis dessen, was mit den Daten geschieht, wie sie integriert werden und welche neuen Wege sie nehmen können. Bei der Kontrolle der eingespeisten Daten muss ein komplexerer Kontext berücksichtigt werden, doch der Schutz vor bereits bekannten Angriffstaktiken darf nicht vernachlässigt werden. Modelle müssen auf eine Weise geschützt werden, die über die übliche Anwendungssicherheit hinausgeht. Die Ausgabedaten müssen mit den Eingaben in Beziehung gesetzt werden, und zwar nicht nur, um ihre Richtigkeit einschätzen zu können, sondern auch, um Missbrauch zu erkennen.
Die Architektur von KI-Bereitstellungen birgt zusätzliche Risiken, die möglicherweise nicht vorhergesehen werden. Wenn Modelle mit zusätzlichen Daten verbessert werden (wie in Retrieval-Augmented-Generation- oder RAG-Architekturen), können die entsprechenden Datenbankzugriffe Risiken entstehen lassen. Da Modelle möglicherweise sehr vielfältige Daten benötigen, um ihre Aufgaben zu erfüllen, besteht die Gefahr, dass ihnen zu weit gefasste Zugriffsrechte zugewiesen werden. Prompts an das Modell könnten dann Datenbeziehungen aufdecken, wie z. B. zwischen Kunden und deren Bestellungen, die andernfalls durch Rollenbeschränkungen der einzelnen Benutzer getrennt geblieben wären. Möglicherweise müssen auch Volumen- oder Verhaltenskontrollen außer Kraft gesetzt werden, um die große Anzahl der modellgenerierten Abfragen zu beantworten – eine Maßnahme, die kein einzelner Nutzer ergreifen darf. So sollte beispielsweise kein einzelner Nutzer jemals eine vollständige Liste aller Kundendaten exportieren dürfen. Ein KI-Modell hingegen könnte dazu berechtigt sein.
Eine große Stärke von KI-Anwendungen ist das Zusammenführen großer Datenmengen aus unterschiedlichen Quellen. Eine oft unerwartete Herausforderung ist jedoch das Potenzial des Modells, Beziehungen aus anonymisierten Daten abzuleiten. Auch wenn Daten anonymisiert wurden, kann ein Modell möglicherweise auf Beziehungen schließen, die durch die Anonymisierung verschleiert werden sollten. Selbst das Überschreiben (Masking) oder Ausblenden (Field Restriction) sensibler Datenfelder reicht nicht immer aus, mitunter müssen vollständig synthetische Daten generiert und genutzt werden.
Ähnlich wie andere Datenquellen verstärken KI-Modelle das Risiko, indem sie wertvolle Daten konzentrieren. Datenbanken sind beispielsweise attraktive Ziele für Datendiebe, weil sie eine reiche Beute darstellen. Im Gegensatz zu Datenbanken werden KI-Modelle jedoch auf Inferenzpunkte verteilt, um nützliche Arbeit zu leisten. Daher sind perimeterbasierte Sicherheitsmaßnahmen zwar vielleicht für Datenbanken effektiv, aber die Installation und Verwaltung ähnlicher Maßnahmen an allen KI-Bereitstellungsorten stellt eine gewaltige Herausforderung dar.
Mit KI ist ein erheblich effektiveres und effizienteres Arbeiten möglich, weshalb ihre Nutzung für Unternehmen nun überlebenswichtig ist. Damit KI-Bereitstellungen nicht zum Schwachpunkt werden, muss bei der Erstellung von Sicherheitsstrategien jedoch ein viel weiteres Feld berücksichtigt werden. Für einen effektiven Schutz ist ein Ansatz erforderlich, der die neuen, durch KI generierten Bedrohungsmodelle richtig interpretiert und die damit einhergehenden Risiken wirksam mindert.

Eric Hanselman, Principal Research Analyst, 451 Research
Eric Hanselman ist der Chief Analyst bei S&P Global Market Intelligence. Er koordiniert Branchenanalysen über das breite Portfolio der Researchdisziplinen in den Bereichen Technologie, Medien und Telekommunikation hinweg und verfügt über ein umfassendes, praxisorientiertes Verständnis einer Reihe von Themenbereichen, darunter Informationssicherheit, Netzwerke und Halbleiter sowie deren Überschneidungen mit Bereichen wie SDN/NFV, 5G und Edge Computing.
Eric unterstützt die Kunden von S&P Global, wenn es darum geht, sich in diesen turbulenten Gewässern zurecht zu finden und potenzielle Ergebnisse zu nutzen. Er ist Mitglied des Institute of Electrical and Electronics Engineers, Certified Information Systems Security Professional und VMware Certified Professional. Häufig kann man ihn als Redner auf führenden Branchenkonferenzen erleben, er moderiert aber auch den Technologie-Podcast Next in Tech.
Entdecke mehr
Stellen Sie KI in den Dienst Ihres Unternehmens
Informieren Sie sich über Strategien für die sichere Implementierung und Verwaltung von KI, um sie zur Steigerung der Effizienz und Produktivität sowie zur Förderung von Innovationen und Wachstum einzusetzen.
Teil 1 Aufbau einer skalierbaren KI-Infrastruktur
Erfahren Sie, warum eine skalierbare, sichere und modulare KI-Infrastruktur für die erfolgreiche Einführung in Unternehmen unerlässlich ist und wie Hybridmodelle dazu beitragen, den sich wandelnden Anforderungen gerecht zu werden.
Teil 2 KI-Datensicherheit: Anpassung an neue Risiken
Erfahren Sie, wie KI die Datensicherheit verändert. Entdecken Sie neue Risiken, sich entwickelnde Bedrohungsmodelle und Strategien zum Schutz sensibler Daten in KI-Umgebungen.