2. August 2025: Die Europäische Union macht ernst: Neue Regeln für ChatGPT & Co. treten in Kraft
Die Ära der frei von regulatorischer Hand agierenden KI-Modelle geht zu Ende. Seit dem 2. August 2025 müssen sich Anbieter wie OpenAI (ChatGPT), Google (Gemini) und andere, deren KI-Systeme in der Europäischen Union genutzt werden, an eine neue, strenge Gesetzeslage halten. Diese Regelungen sind Teil des umfassenden AI Acts der EU, eines wegweisenden Gesetzespakets, das die Entwicklung und den Einsatz von Künstlicher Intelligenz in Europa in eine sichere und verantwortungsvolle Bahn lenken soll.
Was genau hat sich geändert und welche Konsequenzen ergeben sich daraus für die Betreiber von KI-Modellen und für die Nutzer?
Transparenzpflichten für General-Purpose AI
Im Fokus der neuen Vorschriften stehen sogenannte „General-Purpose AI“-Modelle. Darunter versteht man KI-Systeme, die vielseitig einsetzbar sind und nicht für einen einzigen, spezifischen Zweck entwickelt wurden. Das Paradebeispiel hierfür sind die großen Sprachmodelle (Large Language Models, LLMs), die Texte schreiben, Programmcode generieren, Sprache analysieren und komplexe Zusammenhänge verarbeiten können. Im Grunde fallen alle aktuell populären KI-Chatbots wie ChatGPT oder Gemini in diese Kategorie.
Die Betreiber dieser Modelle müssen nun ein hohes Maß an Transparenz an den Tag legen, das es so bisher nicht gab. Kern der neuen Anforderungen ist die
Offenlegungspflicht. Sie müssen detailliert dokumentieren, wie ihre Systeme funktionieren und auf welcher Basis sie trainiert wurden. Dies beinhaltet unter anderem:
- Trainingsdaten: Es muss offengelegt werden, welche Datensätze für das Training der KI verwendet wurden. Ob es sich dabei um öffentlich zugängliche Webdaten, lizenzierte Bücher oder andere Informationen handelt, muss nachvollziehbar sein. Diese Anforderung zielt darauf ab, Urheberrechtsverletzungen zu bekämpfen und es Forschern sowie der Öffentlichkeit zu ermöglichen, die Herkunft der KI-Fähigkeiten besser zu verstehen.
- Funktionsweise: Die Betreiber müssen die grundlegende Architektur und die Funktionsweise ihrer Modelle erklären.
Dies ist eine Herausforderung, da die internen Abläufe vieler komplexer neuronaler Netze oft als „Black Box“ gelten. Die EU erwartet jedoch, dass zumindest die wichtigsten Mechanismen und die Art, wie die KI Entscheidungen trifft, transparent gemacht werden.
Diese Maßnahmen sollen nicht nur das Vertrauen der Nutzer stärken, sondern auch eine wichtige Grundlage für die wissenschaftliche Forschung und die Regulierung schaffen. Wenn wir wissen, auf welchen Daten eine KI basiert, können wir besser beurteilen, ob sie Vorurteile (Bias) in sich trägt oder Fehlinformationen verbreitet.
Besondere Vorkehrungen für besonders leistungsstarke KI-Modelle
Die neuen Regeln gehen noch einen Schritt weiter und unterscheiden zwischen Standard-KI-Modellen und solchen, die ein besonders hohes Risiko bergen. Besonders leistungsstarke KI-Modelle, die potenziell die Sicherheit der Allgemeinheit gefährden könnten, stehen unter strengerer Beobachtung. Die genaue Definition, was ein „besonders leistungsstarkes“ Modell ist, wird durch bestimmte Parameter wie Rechenleistung und Kapazität festgelegt. Dazu gehören typischerweise die aktuellsten und größten Modelle der Branche.
Für diese KI-Giganten gelten zusätzliche, strenge Auflagen:
- Sicherheitsvorkehrungen: Die Entwickler müssen detaillierte Protokolle über ihre Sicherheitsvorkehrungen führen und öffentlich zugänglich machen. Dazu gehören Maßnahmen zur Vermeidung von Cyberangriffen, zur Minderung des
Risikos, dass die KI gefährliche Anleitungen gibt (z.B. zur Herstellung von Waffen), und zur Sicherstellung, dass die Systeme nicht für manipulierte Informationen oder „Deepfakes“ missbraucht werden können.
- Risikobewertung: Es wird eine kontinuierliche Risikobewertung gefordert. Das bedeutet, dass die Betreiber ihre Systeme regelmäßig auf potenzielle neue Risiken hin überprüfen müssen und entsprechende Gegenmaßnahmen ergreifen.
Die EU will damit sicherstellen, dass die Entwicklung von KI nicht unkontrolliert verläuft und potenziell gefährliche Systeme gar nicht erst auf den Markt gelangen oder zumindest unter strengster Aufsicht betrieben werden.
Was bedeutet das für Unternehmen und Nutzer?
Für die Betreiber von KI-Modellen, insbesondere für die Big Player aus dem Silicon Valley, bedeuten diese neuen Regeln einen erheblichen Mehraufwand und eine Abkehr von der bisherigen Praxis. Sie müssen ihre Geschäftsprozesse anpassen, interne Audits durchführen und umfangreiche Dokumentationen erstellen. Die Nichteinhaltung dieser Vorschriften kann mit hohen Geldstrafen geahndet werden, die bis zu 7 % des weltweiten Jahresumsatzes eines Unternehmens betragen können. Die EU zeigt damit, dass sie bereit ist, ihre Marktmacht zu nutzen, um globale Technologiestandards zu setzen.
Für Nutzer in der EU könnten die neuen Regeln mehr Sicherheit und Vertrauen bedeuten. Sie können sich darauf verlassen, dass die von ihnen genutzten KI-Modelle bestimmten Standards genügen und die Betreiber im Ernstfall zur Rechenschaft gezogen werden können. Zudem wird es leichter, Urheberrechtsverletzungen aufzudecken, wenn die Trainingsdaten offenliegen. Allerdings gibt es auch kritische Stimmen, die befürchten, dass die strengen Auflagen die Innovationskraft kleinerer europäischer Unternehmen hemmen könnten.
Insgesamt markiert der 2. August 2025 einen Wendepunkt in der KI-Regulierung. Die EU hat mit ihrem AI Act ein Zeichen gesetzt, dass die ethischen und rechtlichen Aspekte der Künstlichen Intelligenz nicht länger ignoriert werden können. Es bleibt abzuwarten, wie sich die Anbieter an die neuen Regeln anpassen und ob diese Maßnahmen tatsächlich zu einem sichereren und verantwortungsvolleren KI-Ökosystem führen werden. Die Zukunft der KI in Europa wird nun nicht mehr nur von Algorithmen, sondern auch von Gesetzesbüchern geschrieben.