Vierunddreißig Prozent der Unternehmen nutzen oder implementieren bereits Tools für die Anwendungssicherheit von künstlicher Intelligenz (KI), um die damit einhergehenden Risiken von generativer KI (GenAI) zu mindern. Dies geht aus einer aktuellen Umfrage der IT-Analysten von Gartner hervor. Demnach gaben mehr als die Hälfte (56 Prozent) der Befragten an, dass sie solche Lösungen auch in Erwägung ziehen. Befragt wurden im April 2023 150 IT- und Informationssicherheits-Führungskräften in Unternehmen, in denen generative KI-Modelle im Einsatz sind, deren Einsatz geplant ist oder erforscht wird.
Künstliche Intelligenz und IT-Sicherheit im Unternehmen
Sechsundzwanzig Prozent der Umfrageteilnehmer gaben an, dass sie derzeit datenschutzfreundliche Technologien (PETs), ModelOps (25 Prozent) oder Modellüberwachung (24 Prozent) implementieren oder nutzen. Die Experten von Gartner empfehlen: „IT-, Sicherheits- und Risikomanagement-Verantwortliche müssen neben der Implementierung von Sicherheitstools auch die Unterstützung einer unternehmensweiten Strategie für AI TRiSM / KI TRiSM (Vertrauens-, Risiko- und Sicherheitsmanagement) in Betracht ziehen“. So würden Daten- und Prozessflüsse zwischen Nutzern und Unternehmen, die generative KI-Grundlagenmodelle hosten, verwaltet. Dies müsse eine kontinuierliche Anstrengung sein, keine einmalige Übung, um ein Unternehmen kontinuierlich zu schützen.
Während 93 Prozent der befragten IT- und Sicherheitsverantwortlichen angaben, dass sie zumindest in gewissem Maße an den GenAI-Sicherheits- und Risikomanagementbemühungen ihres Unternehmens beteiligt sind, gaben nur 24 Prozent an, dass sie die Verantwortung dafür tragen. Von den Befragten, die nicht die Verantwortung für die GenAI-Sicherheit und/oder das Risikomanagement tragen, gaben 44 Prozent an, dass die letztendliche Verantwortung für die GenAI-Sicherheit bei der IT liegt. Für 20 Prozent der Befragten liegt die Verantwortung bei den Abteilungen für Governance, Risiko und Compliance ihres Unternehmens.
Top-of-Mind-Risiken von künstlicher Intelligenz
Die mit GenAI verbundenen Risiken sind erheblich, kontinuierlich und werden sich ständig weiterentwickeln. Die Umfrageteilnehmer gaben an, dass unerwünschte Ergebnisse und unsicherer Code zu den Risiken gehören, die ihnen beim Einsatz von GenAI am meisten auffallen:
- 57 Prozent der Befragten sind besorgt über das Durchsickern von Geheimnissen in KI-generiertem Code.
- 58 Prozent der Befragten sind besorgt über falsche oder verzerrte Ergebnisse.
Laut Gartner werden Unternehmen, die das KI-Risiko nicht im Griff haben erleben, dass ihre Modelle nicht wie beabsichtigt funktionieren und im schlimmsten Fall Menschen- oder Sachschäden verursachen können. Dies führe zu Sicherheitsmängeln, finanziellen und Reputationsverlusten und zur Schädigung von Personen durch falsche, manipulierte, unethische oder voreingenommene Ergebnisse. KI-Fehlleistungen könnten auch dazu führen, dass Unternehmen schlechte Geschäftsentscheidungen treffen.