Der neue EU AI Act ist beschlossen – was heißt das für dein Unternehmen? In vier Schritten zur Klarheit: Mit Entscheidungsbäumen, Tipps und konkreten Handlungsfeldern für die KI-Compliance.
Regulatorik wird real: Der EU AI Act tritt in Kraft
Mit dem EU AI Act schafft die EU erstmals ein umfassendes Gesetz zur Regulierung von Künstlicher Intelligenz. Seit August 2024 gilt ein verbindlicher Rahmen – Unternehmen haben nun 24 bis 36 Monate, um ihre KI-Systeme konform aufzustellen.1
Wichtig: Der AI Act betrifft nicht nur Tech-Unternehmen. Jede Organisation, die KI-Systeme entwickelt, integriert oder nutzt, kann betroffen sein – von der Industrie bis zum Mittelstand.
Ist dein Unternehmen vom EU AI Act betroffen? Finde es heraus!
Diese Fragen helfen bei der Einordnung:
Nutze ich ein „KI-System“ im Sinne des Gesetzes?
Gilt das Gesetz für meinen Anwendungsfall?
Muss ich als Anbieter oder Nutzer bestimmte Pflichten erfüllen?
Besteht ein Risiko, dass mein System als „hochriskant“ gilt?
Zur Klärung braucht es zunächst kein juristisches Gutachten, sondern eine systematische Vorgehensweise, die Klarheit schafft.
Selbstcheck starten: Vier Schritte zur Klarheit
Wir haben vier Entscheidungsbäumen entwickelt, die Unternehmen beim Einstieg in den EU AI Act unterstützen.
1. Handelt es sich überhaupt um ein KI-System bzw. eine KI-Funktion?
Laut Artikel 3 des EU AI Acts ist der Begriff bewusst weit gefasst: Nicht nur Deep Learning oder neuronale Netze, sondern auch regelbasierte Logiken, statistische Verfahren und klassische Machine-Learning-Modelle fallen darunter.2
Wichtig: Es kommt nicht nur darauf an, ob das System selbst entwickelt wurde – auch zugekaufte oder eingebettete KI-Funktionen (z. B. von Drittanbietern) können ausreichen, damit das Gesetz greift.
2. Gilt der EU AI Act überhaupt für mein System?
Wird das System in der EU verwendet oder vertrieben – direkt oder indirekt? Auch Systeme, die zunächst nur außerhalb der EU eingesetzt werden, können später relevant werden.3
Entscheidungsbaum 1: Geltungsbereich prüfen
3. Wie hoch ist das Risiko des Systems?
Je größer das potenzielle Risiko für Gesundheit, Sicherheit, Grundrechte oder Umwelt, desto strenger die Auflagen:
Verboten: z. B. Sozial-Scores, manipulative Systeme oder verdeckte Emotionserkennung
Hochriskant: z. B. Fahrerassistenz, Kredit-Scoring
Begrenzt riskant: z. B. Chatbots
Geringes Risiko: interne, unkritische Anwendungen4
Entscheidungsbaum 2: Risikoklassifizierung
4. General-Purpose-AI: Anbieter oder Nutzer?
Setzt dein Unternehmen LLMs wie GPT oder Alexa ein, gelten Nutzungspflichten. Wer Modelle fine-tuned oder weiterentwickelt, gilt ggf. als Anbieter – mit zusätzlichen Auflagen.5
Entscheidungsbaum 3: Anbieterpflichten für GPAI prüfen
Praxis-Tipp:
Ist der Anbieter des GPAI nicht konform, darf das Modell künftig ggf. nicht mehr eingesetzt werden – auch wenn es bereits in Betrieb ist.
Hochrisiko-Systeme: Was ist zu tun?
In sicherheitskritischen Bereichen (z. B. Automotive, Medizin) ist oft eine „High Risk“-Einstufung relevant.6 7 8
Entscheidungsbaum 4: Hochrisiko
Beispiel: Ein KI-System, das als Teil eines Fahrerassistenzsystems eingesetzt wird, unterliegt mit hoher Wahrscheinlichkeit den strengeren Pflichten nach Artikel 6 i.V.m. Anhang I.
Das bedeutet u. a.:
Nutzungsvorgaben einhalten
Monitoring & Logging etablieren
Sicherheitsvorfälle managen & melden
Technische Doku und Risikomanagement nachweisen9 10
Fazit: Jetzt aktiv werden
Der EU AI Act ist da – und mit ihm klare Pflichten. Unternehmen sollten jetzt:
alle eingesetzten KI-Systeme erfassen
die Einstufung prüfen (z. B. mit Entscheidungsbäumen)
Dokumentation aufbauen
Zuständigkeiten klären
sich frühzeitig Unterstützung holen
Du möchtest mit der Einstufung der KI-Systeme starten?
Wir unterstützen gerne mit methodischen Vorlagen, Entscheidungsbäumen oder gezieltem Know-how zur Einordnung nach EU AI Act.
Der Beitrag Der EU AI Act ist da – was Unternehmen jetzt für KI-Compliance tun müssen erschien zuerst auf Business -Software- und IT-Blog – Wir gestalten digitale Wertschöpfung.