Sicherheitsverantwortliche verlagern ihren Fokus von „Verbieten“ hin zu „Regulieren“, da sich der unautorisierte Einsatz von KI in Teams und Tools immer weiter ausbreitet.
Mitarbeiter integrieren generative KI schneller in den Arbeitsalltag, als die meisten Organisationen sie genehmigen, prüfen oder absichern können. Aktuelle Analyse von Technology.orgDas Phänomen wird als „Schatten-KI“ bezeichnet: die moderne Variante der Schatten-IT, bei der Mitarbeiter leistungsstarke Tools außerhalb offizieller Kanäle einsetzen. Der Unterschied besteht darin, dass KI Informationen nicht nur speichert oder weitergibt, sondern sie auch transformieren, daraus Schlüsse ziehen und sie mitunter in Systeme weiterleiten kann, die für dieses Risiko nie ausgelegt waren.
Für europäische Sicherheits- und Compliance-Teams besteht die Herausforderung nicht mehr darin, ob KI am Arbeitsplatz eingesetzt werden sollte, sondern darin, wie man Transparenz und Kontrolle zurückgewinnt, ohne die Produktivität einzuschränken. Dieser Balanceakt entwickelt sich zu einem zentralen Problem der Unternehmensführung – eines, das Cybersicherheit, Datenschutz, Beschaffung und zunehmend auch Grundrechte berührt.
Wie „Schatten-KI“ in der Praxis aussieht
Schatten-KI beschränkt sich nicht darauf, dass jemand Text in einen öffentlichen Chatbot einfügt. Sie kann viel subtiler sein: ein in einer Kollaborationsplattform aktivierter „KI-Assistent“, eine Browsererweiterung, die E-Mails umschreibt, ein Plugin, das Kundengespräche zusammenfasst, oder ein Entwickler, der einen KI-Codierungsassistenten mit Zugriff auf firmeneigene Repositories nutzt. In vielen Unternehmen ist KI mittlerweile in bereits genehmigte Tools integriert – wodurch die KI-Ebene schwerer zu erkennen ist als klassische Schatten-IT.
Auch das Risikoprofil ändert sich. Schatten-IT führte typischerweise zu Sicherheitslücken bei Softwareversionen, Zugriffskontrollen und Datenspeicherung. Schatten-KI birgt neue Fehlerquellen: Sensible Daten können in Eingabeaufforderungen einfließen; Ausgaben können fehlerhaft, aber überzeugend sein; und automatisierte „Agenten“-Funktionen können Aktionen auslösen, die sich auf andere Systeme auswirken. Die Folge: Sicherheitsteams können nicht nur die Kontrolle über Anwendungen, sondern auch über Entscheidungen verlieren.
Warum Verbote oft kontraproduktiv sind
Pauschale Verbote sind verlockend, insbesondere nach aufsehenerregenden Datenlecks. Doch sie treiben die Nutzung oft in den Untergrund, untergraben die Meldekultur und vermitteln der Führungsebene ein trügerisches Sicherheitsgefühl. Ein nachhaltigerer Ansatz betrachtet Schatten-KI als Signal: Mitarbeiter greifen zu neuen Tools, weil ihnen die bestehenden Prozesse zu langsam, zu manuell oder zu restriktiv erscheinen.
Deshalb betonen viele Leitfäden mittlerweile die „verantwortungsvolle Ermöglichung“ – die Schaffung klarer Wege für eine sichere Nutzung, nicht nur Verbote. Auch die Cybersicherheitsakteure der EU verfolgen einen ähnlichen Ansatz. In ihrem Leitfaden zu generativer KI in der Cybersicherheit, CERT-EU plädiert für umsetzbare interne Richtlinien, Sensibilisierung der Mitarbeiter und Kontrollmechanismen, die sensible Daten aus öffentlichen Modellen fernhalten, während Organisationen dennoch von Produktivitätssteigerungen profitieren.
Die Kontrolle zurückgewinnen, ohne die Innovation zu bremsen: ein praktischer Leitfaden
Sicherheitsteams, die versuchen, mit Schatten-KI Schritt zu halten, gehen oft von einer einfachen Wahrheit aus: Man kann nicht kontrollieren, was man nicht sieht. Doch Transparenz allein genügt nicht. Ziel ist es, eine sicherere Standardumgebung zu schaffen, in der Mitarbeiter nicht improvisieren müssen.
1) Erstellen Sie ein Verzeichnis der KI-Nutzung – insbesondere innerhalb von „genehmigten“ Tools.
Beginnen Sie mit einer Bestandsaufnahme der aktuellen KI-Einsätze: Chatbots, Copiloten, Protokollierungsdienste, Design-Tools, Programmierassistenten und KI-Funktionen in gängigen SaaS-Plattformen. Berücksichtigen Sie sowohl von der IT freigegebene Tools als auch die Nutzung eigener Lösungen. Viele Unternehmen stellen fest, dass sie bereits KI-Funktionen in Produkten aktiviert haben, die sie vor Jahren erworben haben.
2) Definieren Sie „sichere Daten“ für Eingabeaufforderungen – und setzen Sie diese Definition dann auch durch.
Die meisten KI-Governance-Maßnahmen scheitern an der Grenze zur Datenverarbeitung. Wenn Mitarbeitende personenbezogene Daten, Kundendaten oder vertrauliche Geschäftsunterlagen in ein Modell mit unklaren Aufbewahrungs- oder Schulungsbedingungen einfügen können, setzt sich das Unternehmen möglicherweise vermeidbaren Risiken aus. Leitlinien von EU-Gremien empfehlen daher zunehmend klare Regeln für den Umgang mit Daten – was weitergegeben werden darf, was nicht und wie Daten sicher geschwärzt oder zusammengefasst werden können.
Für Teams, die ein strukturiertes Risikodenken anstreben, NIST-Rahmenwerk für KI-Risikomanagement (AI RMF 1.0) bietet einen Governance-Ansatz, der auf der Abbildung des Kontextes, der Messung von Risiken und dem Management von Kontrollen basiert – nützlich auch für Organisationen, die ihre Modelle nicht selbst erstellen, sondern sie einsetzen.
3) Genehmigte Alternativen anbieten, die tatsächlich nutzbar sind
Wenn Mitarbeitende auf Schatten-KI zurückgreifen, weil der offizielle Weg Wochen dauert, leidet die Governance. Viele Organisationen bieten daher mittlerweile einen genehmigten „KI-Arbeitsbereich“ (oder eine kleine Auswahl an zugelassenen Tools) mit klareren Vertragsbedingungen, Protokollierung und strengeren Datenschutzeinstellungen an. Entscheidend ist die Benutzerfreundlichkeit: Ist die genehmigte Option langsamer, blockiert oder leistungsschwach, wird wieder auf Schatten-KI zurückgegriffen.
4) Integrationen und „KI-Agenten“ mit Leitplanken versehen
Da KI von der Textgenerierung zu konkreten Aktionen übergeht – wie dem Buchen von Terminen, dem Modifizieren von Code, dem Versenden von E-Mails und dem Aktualisieren von Tickets –, besteht das Risiko nicht mehr nur im Datenverlust, sondern auch in der Prozessintegrität. Kontrollmechanismen sollten sich auf das Prinzip der minimalen Berechtigungen, Genehmigungsprozesse für Aktionen mit hoher Auswirkung und aussagekräftige Audit-Logs konzentrieren. Die französische nationale Cybersicherheitsbehörde ANSSI empfiehlt beispielsweise für generative KI-Systeme Rückverfolgbarkeit und Sicherheitsmaßnahmen von Grund auf, darunter die Protokollierung und Trennung von Umgebungen. Sicherheitsempfehlungen.
5) Behandeln Sie Lieferanten und Beschaffung als Teil des Sicherheitsperimeters.
Schatten-KI floriert, wenn Teams Tools direkt erwerben können oder KI-Funktionen unbemerkt durch Updates eingeführt werden. Beschaffung und Sicherheit benötigen gemeinsame Checklisten: Datenaufbewahrung, Ausschlusskriterien für das Modelltraining, regionale Hosting-Optionen, Zugriffskontrollen, Auditierbarkeit und Verpflichtungen zur Reaktion auf Sicherheitsvorfälle. Dies ist insbesondere in Europa relevant, wo die regulatorischen Anforderungen an die Verantwortlichkeit steigen.
6) Gestalten Sie die Ausbildung praxisnah, nicht abstrakt.
Schulungen sind dann effektiv, wenn sie der tatsächlichen Nutzung von Tools entsprechen: „Das sollten Sie nicht einfügen“, „So fassen Sie sensible Inhalte zusammen“, „So überprüfen Sie Ergebnisse“, „Wann verwenden Sie zugelassene Tools?“ und „An wen wenden Sie sich für eine schnelle Überprüfung?“. Ziel ist es, Mitarbeiter zu informierten Akteuren im Bereich der IT-Sicherheit zu machen, nicht zu unbeabsichtigten Verstößen.
Der europäische Kontext: Governance ist heute eine Frage der Wettbewerbsfähigkeit.
Europas regulatorische Ausrichtung ist klar: mehr Rechenschaftspflicht für den Einsatz von KI und verstärkte Kontrolle der Auswirkungen auf Daten und Rechte. EU-Gesetz zur künstlichen Intelligenz Es wird ein risikobasierter Rahmen für KI etabliert, mit strengeren Verpflichtungen für bestimmte risikoreiche Anwendungen und klareren Verantwortlichkeiten entlang der gesamten KI-Wertschöpfungskette. Für Unternehmen bedeutet dies, dass Schatten-KI nicht nur ein technisches Problem darstellt – sie kann zu einem Compliance-Problem werden, wenn unkontrollierte Tools in sensiblen Bereichen wie Personalbeschaffung, Kreditvergabe, Bildung oder bei essenziellen Dienstleistungen eingesetzt werden.
Gleichzeitig steigen die Anforderungen an den Datenschutz. Der Europäische Datenschutzbeauftragte hat aktualisierte Leitlinien zu generativer KI und Datenschutz veröffentlicht und betont die Notwendigkeit, die Schutzmaßnahmen an das sich rasch entwickelnde Ökosystem anzupassen. Siehe die Webseite des EDPS und das herunterladbare Dokument: Leitfaden für generative KI (EDPS).
In diesem breiteren politischen Umfeld ist „schnell handeln und dabei Risiken eingehen“ eine kostspielige Strategie. Für Sicherheitsteams besteht die zukünftige Aufgabe darin, ein kontrolliertes Umfeld für Innovationen zu schaffen: schnelle Genehmigungen, klare Sicherheitsregeln und skalierbare technische Schutzmechanismen.
Was Sie als nächstes sehen sollten
Schatten-KI dürfte zunehmen, sobald KI in Office-Suiten, Kundenplattformen und Entwicklertools zum Standard wird. Analysten warnen davor, dass die unautorisierte Nutzung von KI in Unternehmen zu einem messbaren Sicherheits- und Compliance-Risiko wird und den Druck auf Organisationen erhöht, Mitarbeiter zu schulen und Richtlinien zu formalisieren. Die Organisationen, die sich am schnellsten anpassen, sind möglicherweise diejenigen, die Governance nicht länger als Bremse, sondern als integralen Bestandteil der Produktentwicklung für interne Nutzer betrachten.
Das ist die Kernbotschaft hinter dem Technologie.org Framing: Sicherheitsteams können die Kontrolle zurückgewinnen, aber nur, wenn sie Systeme entwickeln, die den sicheren Weg zum einfachen Weg machen.
Hintergrundinformationen: The European Times hat zuvor die regulatorische Entwicklung der EU als die Europäischer Künstlicher Intelligenz-Gesetzesakt tritt in Kraft.
