EU AI Act: Goldstandard oder Innovationsbremse?

Podcast 15:33 2026-03-29

Transkript zu EU AI Act: Goldstandard oder Innovationsbremse?

Willkommen bei *The Debate*, wir erleben gerade eine technologische Revolution, die wirklich alles verändert. Die explosionsartige Entwicklung generativer künstlicher Intelligenz ist dabei. Während diese Technologie in einem atemberaubenden Tempo voranschreitet, läuft im Hintergrund ein globales Wettrennen darum, wer die Spielregeln für die Zukunft schreibt.

Europa hat sich damit dem sogenannten AI-Act für einen ziemlich mutigen Schritt entschieden, proaktiv das erste umfassende Regelwerk der Welt zu schaffen. Und das wirft eine fundamentale Frage auf, die wir heute diskutieren wollen: Fördert dieser europäische Ansatz mit seinen smarten Leitplanken wirklich sichere und nachhaltige Innovation? Oder bremst er am Ende unseren Fortschritt und überlässt den USA und China das Feld?

Ich werde heute argumentieren, dass dieser proaktive, auf Werkensbasierte Weg absolut notwendig ist, um Vertrauen zu schaffen und einen globalen Goldstandard für sichere, menschenzentrierte KI zu setzen. Gleichzeitig vertrete ich die Position, dass wir mit diesem sehr umfassenden Regulierungsversuch Gefahr laufen, eine Innovationsbremse zu schaffen, die Europa in diesem entscheidenden globalen Wettlauf empfindlich zurückwirft.

Ich bin fest davon überzeugt, dass die EU hier strategisch klug handelt. Es geht darum, die Spielregeln aktiv zu definieren, anstatt zum Spielball einer Technologie zu werden, deren Logik wir nicht kontrollieren. Das Herzstück, der AI-Act, ist dabei alles andere als ein plumpes Verbot. Er verfolgt eine sehr differenzierte, risikobasierte Philosophie.

Das muss man sich ganz praktisch vorstellen: Ein simpler Chatbot, der Kochrezepte vorschlägt, fällt unter minimales Risiko und ist quasi unreguliert. Aber eine KI, die über die Freiheitswürdigkeit von Menschen entscheidet oder in der medizinischen Diagnostik eingesetzt wird, gilt als hohes Risiko. Hier gelten dann strenge Anforderungen an Datenqualität, Transparenz und Tests auf Voreingenommenheit. Es ist also kein Hammer, sondern ein fein justiertes Werkzeugset.

Diese smarten Leitplanken sollen Innovationen nicht stoppen, sondern sie in sichere Bahnen lenken, um Unfälle wie algorithmische Diskriminierung oder die Flut von Deepfakes zu verhindern. Die Basis dafür sind vier Säulen: Transparenz der Trainingsdaten, Datenschutz, Diskriminierungsschutz und das ist wohl der wichtigste Punkt, klare Haftungsregeln.

Denn die aktuelle juristische Grauzone, diese Haftungslücke, ist pures Gift für Investitionen. Wenn niemand weiß, wer verantwortlich ist, wenn eine KI Schaden anrichtet, wagt sich niemand an wirklich kritische Anwendungen. Rechtssicherheit ist hier kein Hindernis, sondern der Treibstoff für vertrauenswürdige Innovation.

Ich komme davon aus einer ganz anderen Warte: Die Absicht ist ehrenwert, keine Frage. Aber die entscheidende Frage ist doch, ob wir uns das in der aktuellen globalen Dynamik überhaupt leisten können? Ganz ehrlich, diese Vorstellung bereitet mir Sorgen.

Ich sehe die Geschwindigkeit im Silicon Valley. Ich sehe die massive staatliche Förderung und den Pragmatismus in China. Und dann sehe ich unseren detaillierten jahrelangen Regulierungsprozess. Während die EU ein allumfassendes Regelwerk für alle Sektoren schmiedet, gehen die USA und China einen viel pragmatischeren Weg. Sie regulieren spezifische Bereiche, dort, wo Probleme tatsächlich auftreten, etwa im Finanzsektor oder bei autonomen Fahrzeugen.

Das wirft für mich die zentrale Frage der nächsten Jahre auf: Machen wir die Technologie wirklich sicherer? Oder bremsen wir uns am Ende nur selbst aus? Die Metapher der Leitplanken, die klingt beruhigend, aber ich fürchte, in der Praxis wird daraus ein massives bürokratisches Labyrinth, das mit der exponentiellen Entwicklung von KI niemals Schritt halten kann.

Wir müssen natürlich globale Probleme wie KI-Halluzinationen oder Desinformationen angehen. Aber ein starres, allumfassendes Gesetz für eine Technologie, die sich quasi monatlich neu erfindet, könnte das denkbar schlechteste Werkzeug sein. Die Gefahr ist real, dass die bahnbrechende Entwicklung dann einfach woanders stattfindet unter agileren Bedingungen.

Ich verstehe die Sorge vor einer Verlangsamung, aber ich glaube, der Denkfehler liegt darin. Regulierung und Innovation als Gegensätze zu sehen. Diese Leitplanken sind keine Bremse, sie sind die Voraussetzung für Vertrauen und Vertrauen ist die härteste Währung im digitalen Zeitalter. Ohne dieses Vertrauen werden weder Unternehmen in großem Stil investieren, noch werden die Bürger diese Technologie in kritischen Bereichen akzeptieren.

Machen wir es doch mal konkret. Stellen Sie sich ein deutsches Mittelstandsunternehmen vor. Ein Weltmarktführer in seiner Nische. Es will eine KI zur Optimierung seiner gesamten Lieferkette einsetzen. Die KI macht einen katastrophalen Fehler. Die Produktion steht wochenlang still, der Schaden geht in die Millionen. Nach aktuellem Recht ist der Versuch, die Schuldfrage zu klären, lag es am US-Anbieter des Modells, am deutschen Berater, der es implementiert hat, oder am Unternehmen selbst? Ein juristischer Albtraum, der die Firma in den Ruinen treiben kann.

Der AI-Act schafft hier eine klare Verantwortungskette. Das ist ein direkter, handfester ökonomischer Vorteil. Es geht nicht um Bürokratie, es geht um Planbarkeit. Das ist ein starker Punkt, ja, für den etablierten Mittelständler. Aber haben Sie bedacht, wie idealistisch diese Vorstellungen für das gesamte Innovations-Ökosystem sind? In der Realität bedeutet Regulierung eben immer auch Aufwand, Kosten und vor allem Zeit. Während europäische Entwickler, gerade die kleinen Start-ups, sich mit komplexen Risiko-Bewertungen, Dokumentationspflichten und Konformitätsprüfungen herumschlagen, können ihre Wettbewerber in den USA und China schon die nächste Version ihres Produkts auf den Markt bringen.

Ich spreche von den hunderten kleinen, agilen Teams in Garagen und Co-Working-Spaces, die vielleicht die nächste große KI-Anwendung entwickeln. Für die ist der AI-Act keine Chance, sondern eine gewaltige Hürde. Der pragmatische, bereichsspezifische Ansatz der USA ist da womöglich nicht nur agiler, sondern auch innovationsfreundlicher. Er reagiert auf konkrete Probleme, ohne gleich das gesamte Feld mit einem einzigen, schwerfälligen Regelwerk zu überziehen. Wir laufen Gefahr, das Rennen zu verlieren, während wir noch die perfekten Leitplanken zimmern.

Sie nennen den US-Ansatz pragmatisch, ich würde ihn eher als reaktiv bezeichnen. Er ist ein Abwarten, bis der Schaden eingetreten ist. Wir haben das doch bei den sozialen Medien gesehen. Jahrelang hat man auf Selbstregulierung gesetzt, bis die Probleme von Wahlbeeinflussung bis zu psychischen Schäden bei Jugendlichen so groß wurden, dass man panisch und oft ungeschickt nachregulieren musste.

Europa macht diese harte Arbeit jetzt vorab. Es geht um nachhaltiges, qualitatives Wachstum statt kurzfristiger Sprints, die am Ende in einer Sackgasse aus Skandalen und Vertrauensverlust enden. Das ist keine Bremse, das ist strategische Voraussicht. Und diese Voraussicht kann sich zu einem enormen strategischen Vorteil entwickeln.

Und da kommen wir zu meinem größten Bedenken. Dieser strategische Vorteil, den Sie beschreiben, der existiert ja nur, wenn der Rest der Welt mitspielt. Das bringt mich zu dieser Annahme des Brüsseleffekts. Genau, das ist ein entscheidender Hebel. Die EU hat wie schon bei der Datenschutzgrundverordnung, der DSGVO, das enorme Potential, einen globalen de facto Standard zu setzen. Der Mechanismus dahinter ist simpel. Unternehmen weltweit übernehmen europäische Standards oft nicht aus Überzeugung, sondern weil es wirtschaftlich vernünftiger ist, ein Produkt nach den strengsten Regeln zu entwickeln, als mehrere Versionen für verschiedene Märkte zu pflegen.

Der europäische Binnenmarkt mit seinen fast vier nach fünfzig Millionen kaufkräftigen Konsumenten ist einfach zu groß und zu lukrativ, um ihn zu ignorieren. Das ist kein Wettbewerbsnachteil, das ist ein strategischer Machtfaktor. Wir exportieren damit unsere Werte wie Grundrechtsschutz und Transparenz in die globale Tech-Welt. Wir gestalten die Spielregeln, anstatt sie uns von anderen diktieren zu lassen.

Diese Annahme, der Brüssel-Effekt, würde sich bei der KI einfach wiederholen, ist aus meiner Sicht eine sehr riskante Wette. Die Analogie zur DSGVO hinkt gewaltig. Warum? Weil der KI-Markt fundamental anders strukturiert ist als der Datenmarkt damals. Er wird heute von einer Handvoll gigantischer, außereuropäischer Akteure dominiert aus den USA und China. Diese Konzerne verfügen über die Rechenkapazität, die Datenmengen und das Kapital, das in Europa so kaum vorhanden ist.

Anders als bei der DSGVO, wo es um Praktiken ging, die viele Unternehmen anpassen konnten, geht es bei KI um technologische Grundlagen, die diese wenigen Player kontrollieren. Es besteht die reale Gefahr, dass diese Giganten den europäischen Markt entweder mit angepassten, vielleicht abgespeckten Versionen bedienen oder, im schlimmsten Fall, ihre innovativsten Modelle Europa vorenthalten. Anstatt einen Goldstandard zu setzen, schaffen wir am Ende vielleicht nur eine Festung Europa, eine überregulierte Nische, während die maßgebliche Innovation und Wertschöpfung unter flexibleren Regeln woanders stattfindet.

Ich gebe Ihnen recht, die Marktstruktur ist eine andere. Aber sie unterschätzen die Stärke des europäischen Marktes, insbesondere im industriellen B2B-Bereich. KI ist ja nicht nur ChatGPT, es geht um KI in der Produktion, in der Logistik, in der Medizintechnik. Das sind die traditionellen Stärken der europäischen, insbesondere der deutschen Wirtschaft. Wenn wir hier die Standards für sichere und verlässliche KI setzen, geben wir unseren eigenen Unternehmen einen Heimvorteil. Sie können dann Produkte entwickeln, die *secure and reliable by design* sind. Das wird weltweit ein Qualitätsmerkmal sein. Wir schaffen damit einen Markt für hochwertige vertrauenswürdige KI, anstatt im reinen Leistungswettlauf bei Sprachmodellen zu versuchen, mit den USA gleichzuziehen, wo wir den Staat ohnehin schon etwas verschlafen haben.

Es leuchtet ein, aber selbst in diesem B2B-Szenario bleibt ein fundamentales Problem ungelöst, das durch den AI-Akt vielleicht sogar verschärft wird. Sie haben vorhin die Haftungsregeln als Stärke hervorgehoben. Aber wie soll das in der Praxis zum Beispiel für Open-Source-Modelle funktionieren? Das ist doch der Motor für einen Großteil der Innovation. Wenn jetzt ein kleines Team in Berlin ein leistungsfähiges Open-Source-Modell veröffentlicht und ein Unternehmen in Frankreich es für eine Hochrisikoanwendung adaptiert, sagen wir zur Steuerung einer Maschine, und es passiert ein Unfall: Wer haftet dann nach dem AI-Akt? Das ursprüngliche Entwicklerteam, das französische Unternehmen? Schafft der Akt hier nicht eine gewaltige Rechtsunsicherheit für genau die Community, die wir eigentlich fördern wollen? Das ist eine absolut berechtigte und zentrale Frage, die auch in der Entwicklung des Gesetzes intensiv diskutiert wurde.

Die Antwort des AI-Akts ist differenziert. Er zielt in erster Linie auf den sogenannten Deployer, also das Unternehmen, das ein KI-System in einem Hochrisikokontext in Verkehr bringt oder einsetzt. Die ursprünglichen Entwickler eines allgemeinen Open-Source-Modells sollen explizit nicht pauschal in die Haftung genommen werden. Es sei denn, sie haben es von vornherein für einen verbotenen oder hochriskanten Zweck konzipiert. Es ist der Versuch, die Verantwortung dorthin zu legen, wo die Kontrolle über die konkrete Anwendung liegt. Ist das perfekt?

Wahrscheinlich nicht, aber die Alternative ist ein völliges Rechtsvakuum, eine totale Grauzone, die für Open-Source-Entwickler noch gefährlicher ist, weil sie im Schadensfall mit unvorhersehbaren Klagen überzogen werden könnten. Ein klarer, wenn auch komplexer Rahmen ist besser als gar keiner.

Gut, in der Theorie klingt diese Trennung zwischen Entwickler und Anwender plausibel. Aber in der Praxis sind die Grenzen doch fließend. Der Anwender wird im Schadensfall immer argumentieren, der Fehler lag bereits im Fundament des Modells. Das wird zu jahrelangen extrem teuren Rechtsstreitigkeiten führen.

Und das bringt mich zu meinem Kernpunkt zurück. Anstatt zu versuchen, diese unheimlich komplexe, sich ständig wandelnde Technologie in ein einziges, gigantisches von oben verordnetes Gesetz zu pressen, das bei seiner Verabschiedung schon wieder veraltet ist, wäre es nicht klüger gewesen, unsere bestehenden über Jahrzehnte gewachsenen Rechtssysteme schrittweise anzupassen? Wir könnten das Produkthaftungsrecht oder das Deliktsrecht agil weiterentwickeln, von Fall zu Fall lernen und uns anpassen. Dieser Ansatz wäre vielleicht langsamer, aber am Ende organischer, nachhaltiger und weniger innovationsfeindlich als dieser Versuch, die Zukunft in Paragrafen zu gießen.

Zusammenfassend würde ich sagen, der europäische Ansatz ist mutig und er ist richtig. Indem wir proaktiv einen sicheren, transparenten und brechenbaren Rahmen mit klaren Haftungsregeln schaffen, bremsen wir die Innovation nicht. Wir kanalisieren sie, wir lenken sie in verantwortungsvolle und damit langfristig erfolgreichere Bahnen. Es geht darum, eine Technologie zu gestalten, die unseren demokratischen Wertedienst, anstatt unkalkulierbare Risiken für unsere Gesellschaft einzugehen.

Und meine Sorge bleibt, dass dieser gut gemeinte Versuch, alle denkbaren Risiken vorab zu regulieren, uns im globalen Wettlauf entscheidend zurückwirft. Die europäische Gründlichkeit und unser Streben nach Perfektion könnten in diesem Fall zu unserer größten Schwäche werden. Wir riskieren, die kreative, disruptive Dynamik abzuwirken, die für echte Durchbrüche in diesem Feld einfach notwendig ist, während andere schneller und pragmatischer vorangehen.

Unsere Diskussion hat, denke ich, die zentrale Spannung deutlich gemacht. Auf der einen Seite steht der europäische Anspruch, durch vorausschauende Regeln Sicherheit und Vertrauen zu schaffen, um damit erst eine Grundlage für hochwertige nachhaltige Innovation zu legen. Und auf der anderen Seite die seriale Befürchtung, dass wir uns in diesem Regelwerk verheddern und im globalen Wettbewerb durch einen Mangel an Geschwindigkeit und Agilität den technologischen Anschluss verlieren.

Ob Europa hier einen Geniestreich landet oder sich ins Abseits reguliert, diese Frage ist heute nicht entschieden. Die Debatte hat gerade erst begonnen.

Nach oben scrollen