Schatten-KI in Unternehmen: Risiken durch Mitarbeiter & interne Daten in KI-Tools

Podcast 14:10 2026-02-27

Transkript zu Schatten-KI in Unternehmen: Risiken durch Mitarbeiter & interne Daten in KI-Tools

Willkommen zu *The Debate*. Heute geht es um ein Thema, das ja quasi durch die Gänge fast jedes Unternehmen geistert: die sogenannte Schatten-KI. Mitarbeiter nutzen öffentlich zugängliche Tools wie ChatGPT, füttern sie mit internen Daten – und, naja, niemand hat wirklich die Kontrolle. Das war schon immer ein Risiko, aber durch den neuen EU-AI-Akt ist es, ich würde sagen, zu einer tickenden Zeitbombe geworden, die direkt auf dem Schreibtisch der Geschäftsführung liegt.

Genau. Und die zentrale Frage, die uns doch umtreiben muss, lautet: Wie reagieren wir darauf? Versuchen wir, dieses Phantom mit einer technischen Festung einzufangen, also mit einer ganz strengen zentralisierten Kontrolle, oder schaffen wir damit am Ende nur ein neues Problem, weil wir genau die Innovationskraft abwürgen, die wir eigentlich entfesseln wollen? Das ist der Kern unseres heutigen Gesprächs.

Ich bin fest davon überzeugt, dass angesichts der massiven rechtlichen und ja auch finanziellen Risiken absolut kein Weg an einer technisch durchgesetzten zentralen Architektur vorbeiführt. Sicherheit und Kontrolle sind da die nicht verhandelbare Basis. Und ich werde dagegenhalten: Ich glaube, ein rein technischer Ansatz bekämpft eben nur die Symptome und ignoriert die Ursachen. Am Ende riskieren wir, zu einem echten Innovationshemmnis zu werden, anstatt das Problem wirklich an der Wurzel zu packen.

Gut, dann lass uns direkt einsteigen. Die Bedrohung, die ich sehe, ist der totale Kontrollverlust. Und ich spreche hier nicht von einer irgendwie abstrakten Gefahr - wir reden über sensible Daten, Verträge, Kundenlisten, interne Strategie-Papiere, also den gesamten Wissensschatz eines Unternehmens. All das fließt unbemerkt ab und trainiert externe KI-Modelle. Die KI ist ja längst da, sie agiert nur im Verborgenen, wild und unkontrolliert.

Entschuldige, wenn ich da direkt einhake: Du zeichnest ein sehr düsteres Bild, aber ist es nicht vielleicht ein bisschen übertrieben, von einem totalen Kontrollverlust zu sprechen?

Nein, das glaube ich nicht. Denn der EU-AI-Act hat die Spielregeln fundamental verändert. Was früher, sagen wir mal, ein IT-Sicherheitsthema war, ist jetzt eine persönliche Haftungsfrage für die Geschäftsführung. Und das müssen wir ganz klar ausbuchstabieren: Wir reden hier nicht mehr nur über ein Bußgeld für das Unternehmen. Wir reden über die reale Möglichkeit, dass ein Vorstand oder Geschäftsführer persönlich haftbar gemacht wird, wenn eine unkontrollierte KI nachweislich Schaden anrichtet, sei es durch ein Datenleck oder durch diskriminierende Ergebnisse eines ungetesteten Algorithmus. Unwissenheit schützt hier einfach nicht mehr vor Strafe.

Und diese neue Risikodimension zwingt uns zum Handeln. Den Punkt der Haftung gebe ich dir sofort, der ist unbestreitbar und absolut zentral. Aber ich ziehe einen völlig anderen Schluss daraus.

Gerade weil das Risiko so hoch ist, können wir es uns doch nicht leisten, die Mitarbeiter mit einer rein technischen Lösung vor den Kopf zu stoßen. Du willst eine hohe Mauer bauen, einen zentralen Hub, einen Türsteher, wie es ja oft heißt. Aber was passiert denn, wenn die Leute nicht reinkommen oder der Türsteher zu langsam ist?

Der Türsteher ist die einzige verantwortungsvolle Lösung. Wir brauchen ein technisches Fundament nach dem Prinzip Governance by Design. Ein zentraler, sicherer Hub, der unsere wertvollen Unternehmensdaten strikt von den externen, unkontrollierbaren KI-Modellen entkoppelt. Diese Architektur garantiert uns Datensouveränität. Sie verhindert, dass wir uns von einem einzigen Anbieter wie OpenAI abhängig machen und ist die Basis für jede Form von sicherer Innovation.

Und genau da liegt mein Problem. Dein sicherer Hub klingt für mich nach einem Flaschenhals. Die eigentliche Frage, die du dir doch stellen musst, ist, warum gehen die Mitarbeiter überhaupt in den Schatten? Weil sie agil sein wollen, weil sie unbürokratische Wege suchen, um ihre Arbeit besser und effizienter zu machen. Das sind oft die motiviertesten, die innovativsten Leute. Und denen stellst du jetzt eine neue, zentrale IT-Instanz in den Weg, die erstmal alles genehmigen muss. Du frustrierst doch genau die Leute, die du eigentlich fördern willst. Du stellst Kontrolle und Agilität als einen unauflösbaren Gegensatz dar.

Ich sehe das komplett anders. Ohne einen zentralen, sicheren Rahmen ist doch jede Form von Agilität nur ein unkalkulierbares Glücksspiel mit dem Tafelsilber des Unternehmens. Die Möglichkeit, flexibel zwischen verschiedenen KI-Modellen, sei es von OpenAI, Mistral oder einem Open-Source-Anbieter zu wechseln, ist ein enormer strategischer Vorteil. Aber diesen Vorteil kann ich doch erst dann sicher ausspielen, wenn ich ihn innerhalb einer kontrollierten Architektur nutze. Absolute Kontrolle über den Datenfluss ist kein Gegensatz zu Agilität. Sie ist deren Fundament.

Ich würde das anders formulieren. Was du als Fundament bezeichnest, kann in der Praxis ganz schnell zu einem Gefängnis für Kreativität werden. Wirkliche Agilität entsteht doch nicht dadurch, dass ich innerhalb eines starren Systems ein paar technische Bausteine austauschen kann. Wirkliche Agilität entsteht, wenn Mitarbeiter die Freiheit haben, neue Werkzeuge schnell und unkompliziert auszuprobieren. Ein System, das von diesen Mitarbeitern aber als Hindernis wahrgenommen wird, als zusätzlicher Genehmigungsprozess oder als nicht passgenau für ihre Aufgabe, das wird umgangen.

Ich habe neulich mit einem Entwickler gesprochen, der hat mir gesagt, wenn ich für eine Kotfrage erst ein internes Ticket aufmachen muss, um auf ein externes LLM zuzugreifen, dann nutze ich in der Zwischenzeit halt mein privates Handy. Ich will mein Problem lösen und zwar jetzt. Das ist doch die Realität, der sich deine zentrale Lösung stellen muss. Aber dieses Beispiel zeigt doch genau mein Problem.

Der Entwickler riskiert dabei, dass er geistiges Eigentum der Firma preisgibt. Deine Leitplanken sind in dem Moment nur gut gemeinte Wünsche. Meine technische Architektur würde das verhindern. Und die Technologie dafür haben wir ja, das ist der entscheidende Punkt.

Die Kerntechnologie, die das überhaupt erst möglich macht, heißt RAC, also Retrieval Augmented Generation, um das kurz für alle zu erklären. Das bedeutet, die KI erfindet ihre Antworten nicht mehr frei, sondern wird gezwungen, sie aus einem vordefinierten sicheren Datenpool, also den eigenen Firmendaten zusammenzustellen und zu belegen. Das verändert alles.

Okay, RAC ist ein gutes Stichwort. Erklär mal, warum das für dich der absolute Game Changer ist. Bei RAC das größte Problem der KI, die sogenannten Halluzinationen, also das Erfinden von Fakten, quasi eliminiert. Die KI greift nicht mehr auf das unkontrollierbare Internet zu, sondern auf deine Sharepoint-Dokumente, deine PDFs, deine internen Datenbanken. Sie liefert faktenbasierte Antworten, sogar mit Quellenbeleg.

Stell dir einen Juristen vor, der früher drei Stunden brauchte, um alle relevanten Klauseln in 50 Verträgen zu finden. Mit einem RAC-System, das auf die Vertragsdatenbank des Unternehmens trainiert ist, bekommt er die gleiche, sogar präzisere Antwort in 15 Minuten. Das ist keine abstrakte Zahl, das ist ein fundamental veränderter Arbeitsprozess. Wir reden hier über Effizienzsteigerungen von bis zu 80 Prozent bei solchen Recherchen.

Das gesamte Expertenwissen des Unternehmens wird für jeden Mitarbeiter sofort und sicher zugänglich. RAC verwandelt die KI von einem unkontrollierbaren Risiko in einen steuerbaren präzisen Wettbewerbsvorteil.

Ich bin ja der Letzte, der die Vorteile von RAC für solche wissensintensiven Aufgaben in Abrede stellt. Für die Recherche in internen Wissensdatenbanken, für den Kundenservice oder die Analyse von Verträgen ist das eine brillante Technologie, keine Frage.

Aber mal ehrlich, ich kaufe dir diese Allmacht von RAC einfach nicht ab. Es ist doch kein Allheilmittel, du tust so, als wäre das die Antwort auf alles, aber das ist es nicht. Wo siehst du denn die Grenzen?

Denk doch mal an kreative Prozesse, an das Brainstorming für eine neue Marketingkampagne. Soll die KI dann nur auf die Broschüren der letzten zehn Jahre zugreifen? Oder an die Strategieabteilung, die globale Marktrends analysieren will? Die brauchen den Zugriff auf das gesamte Wissen der Welt, nicht nur auf interne Reports.

Oder nimm deinen Entwickler von vorhin. Wenn der nach einer Lösung für ein komplexes Kodierungsproblem sucht, findet er die in 99% der Fälle auf externen Plattformen wie GitHub oder Stack Overflow, nicht im internen Wiki. Eine ausschließliche Fokussierung auf interne Daten, wie sie ein striktes RAC-System erzwingt, würde das transformative Potenzial der KI in all diesen Bereichen künstlich beschränken.

Wir würden Innovationen verhindern, nur weil wir aus Angst vor dem Unbekannten den Zugang zum Bekannten kappen.

Aber das ist doch eine falsche Gegenüberstellung. Die Architektur, die ich vorschlage, schließt das ja gar nicht aus. Innerhalb des sicheren Hubs kann man sehr wohl granular steuern, welche Anwendungsfälle mit welchen Daten auf welche externen Modelle zugreifen dürfen. Der Marketing-Mitarbeiter kann für sein Brainstorming ein offenes Modell nutzen, während der Controller für seine Finanzanalyse ein geschlossenes System verwenden muss. Der entscheidende Punkt ist, die Entscheidung wird bewusst getroffen, sie wird protokolliert und sie ist nachvollziehbar, sie passiert nicht zufällig im Schatten.

Das führt mich direkt zu meinem letzten Punkt: Governance. Ist sie eine Frage der Architektur oder der Kultur? Für mich ist die Antwort glasklar. Governance muss von Anfang an im Kern der Architektur verankert sein. Du meinst Governance by Design? Genau. Das bedeutet, dass Sicherheit, Compliance und Kontrolle keine nachträglich aufgesetzten Pflaster sind, sondern Teil des Fundaments. Die Technik schafft einen sicheren Raum, eine Sandbox, in dem sich die Mitarbeiter dann frei und kreativ bewegen können, ohne das Unternehmen zu gefährden. Das ist der einzige systematische Weg, um die persönliche Haftung der Geschäftsführung wirklich auszuschließen. Alles andere ist doch nur ein wager Appell an die Hoffnung.

Ich komme da von einer völlig anderen Seite. Für mich ist Governance weitaus mehr als nur Architektur. Eine rein technische Barriere, die ohne Erklärung und ohne Einbindung der Mitarbeiter errichtet wird, erzeugt doch nur Frustration und Widerstand. Sie fördert eine Kultur des Misstrauens, sondern wir gegen die IT denken. Echte, nachhaltige Governance umfasst klare, verständliche Richtlinien, transparentes Training und vor allem Vertrauen. Die Mitarbeiter müssen verstehen, warum gewisse Handlungen riskant sind und welche Werkzeuge für welche Aufgaben sicher sind.

Aber dieses Verständnis allein verhindert doch keinen einzigen Fehler. Am Ende klickt jemand versehentlich auf den falschen Button und die Daten sind weg. Nicht, wenn du es richtig machst. Wenn du die Leute in den Prozess einbindest, werden sie zum Mitstreiter für die Sicherheit, statt zu Gegnern der IT. Eine nachhaltige Lösung kombiniert eine sichere technische Basis, da steh ich dir zu, die ist notwendig, mit einer aufgeklärten und verantwortungsbewussten Unternehmenskultur. Das eine ohne das andere ist entweder eine löchrige Festung, die von innen untergraben wird, oder ein zahnloser Tiger, der zwar schöne Regeln hat, die aber niemand befolgt.

Die Architektur gibt dir die Kontrolle, aber die Kultur gibt dir die Skalierbarkeit und die Akzeptanz. Ohne die bleibt ein schöner Hub ein ungeliebtes und ja umgangenes Tool. Zusammenfassend bleibe ich also bei meiner Überzeugung. Angesichts der wirklich existenziellen Risiken des Datenverlusts und der persönlichen Haftung nach dem EU-AI-Akt ist ein sicheres technisches Fundament, realisiert durch einen zentralen Hub, absolut alternativlos.

Es ist die Grundvoraussetzung, die Lizenz sozusagen, um die gewaltige Kraft der KI überhaupt sicher, kontrolliert und skalierbar für das eigene Unternehmen nutzen zu können. Alles andere ist ein Blindflug in ein rechtliches Minenfeld, den sich heute keine Geschäftsführung mehr leisten kann.

Prozesse, kontinuierliche Schulung und eine Kultur des Vertrauens und der Eigenverantwortung wird dies nicht ergänzt, droht es zu einer starren Festung zu werden, die mehr behindert als ermöglicht. Man bekämpft dann die Symptome der Schatten-KI, ignoriert aber ihrer Ursachen den Wunsch der Mitarbeiter nach agilen Lösungen und riskiert die innovative Energie des Unternehmens abzuwirken.

Unabhängig von unseren unterschiedlichen Schwerpunkten wird aber eines vollkommen klar: Die Zeit, in der man das Thema Schatten-KI ignorieren konnte, ist definitiv vorbei. Wegducken ist keine Option mehr. Absolut, jede Unternehmensführung muss sich jetzt die ehrliche und vielleicht auch unangenehme Frage stellen: Wissen wir wirklich, was in unserem Unternehmen gerade mit KI passiert?

Eine robuste Zukunftsstrategie erfordert die Auseinandersetzung mit beiden Seiten dieses Argumentes: Der unbedingten Notwendigkeit technischer Kontrolle und der ebenso großen Bedeutung einer agilen aufgeklärten Kultur. Das Fundament dafür muss jetzt gelegt werden.

Nach oben scrollen