Wenn KI Fakten erfindet: So gefährlich können fehlerhafte KI-Antworten sein

Künstliche Intelligenz klingt stark – aber was, wenn sie plötzlich Unsinn redet? Von erfundenen Gerichtsurteilen bis hin zu menschenverachtenden Aussagen: Dieser Beitrag beleuchtet die realen Risiken fehlerhafter KI-Antworten.

In einem voll besetzten Gerichtssaal stockt allen der Atem. Ein Anwalt hat soeben mehrere Gerichtsurteile zitiert, um die Klage seines Mandanten zu untermauern. Doch nun blickt der Richter streng über den Rand seiner Brille: „Diese Fälle… existieren nicht.“ Der Anwalt ist fassungslos – die KI, der er blind vertraute, hat ihn getäuscht. ChatGPT hatte ihm die Urteile mit komplett erfundenen Namen und Details​ geliefert.1

Was wie ein Tech-Thriller klingt, ist Realität. Der Vorfall machte 2023 Schlagzeilen und steht sinnbildlich für ein Problem, das seither noch drängender geworden ist: Selbst modernste KI-Systeme machen gravierende Fehler.

Nach dem Zufallsprinzip: Unberechenbare KI-Ausgaben

Warum passieren solche Fehler?

Generative KI arbeitet probabilistisch. Das heißt, sie wählt Worte oder Lösungen auf Basis von Wahrscheinlichkeiten aus. Bei jeder Anfrage würfelt das Modell neu. So können identische Eingaben unterschiedliche Antworten erzeugen. Einerseits führt diese Zufälligkeit zu kreativer Vielfalt. Andererseits entstehen dadurch Unberechenbarkeit, welche die Verlässlichkeit der KI-Modelle untergraben.Ein aktuelles Beispiel für diese „Launenhaftigkeit“ von KI-Modellen lieferte Googles Sprachmodell Gemini. Normalerweise gibt es harmlose Antworten – doch manchmal läuft es völlig aus dem Ruder. So beschimpfte Gemini einen Nutzer beschimpft und meint, er sei ein „Schandfleck des Universums“ und wünschte ihm, „er möge doch bitte sterben“.2

Solche verstörenden Entgleisungen verdeutlichen, wie unvorhersehbar die Antworten von modernen KI-Modellen ausfallen können, wenn bestimmte Bedingungen ungünstig zusammentreffen.

Halluzinationen statt Fakten: Wenn KI Inhalte erfindet

Eng verwandt mit dem Zufallsprinzip ist das Phänomen der KI-Halluzination. Die KI gibt Inhalte aus, die falsch oder frei erfunden sind. KI-Modelle generieren Antworten basierend auf ihren Trainingsdaten. Wenn diese Daten lückenhaft oder missverständlich sind, „rät“ die KI und präsentiert Erfundenes im Gewand scheinbarer Fakten​. Für den Nutzer ist dies jedoch oft nicht erkennbar, denn die KI präsentiert diese falschen Fakten stets absolut überzeugend.

Der New Yorker Gerichtssaal aus der Einleitung ist ein perfektes Beispiel hierfür, denn ChatGPT halluzinierte mehrere Gerichtsurteile komplett. Der Anwalt hatte keine Anhaltspunkte, an der Seriosität zu zweifeln, und geriet so in eine peinliche Lage vor Gericht. Er ist hiermit nicht allein, denn weltweit sorgen solche Vorfälle immer wieder für Aufsehen. KI-Chatbots haben in der Vergangenheit mehrfach imaginäre Wissenschaftsartikel zitiert, Gesetze erfunden und Personen falsche Taten unterstellt.

Veraltetes Wissen: Eine fragwürdige Datenbasis

Generative KI-Modelle wissen viel, jedoch noch lange nicht alles. Denn selbst wenn ein Modell Millionen von Dokumenten verschlungen hat, bleibt ihm das Weltgeschehen nach dem Stichtag seines Trainings unbekannt. Viele bekannte KI-Systeme haben daher einen Wissensstand, der etliche Monate oder Jahre hinter der Gegenwart zurückliegt. Die Halbwertszeit von KI-Wissen ist kurz, weil die Realität ständig neue Fakten schafft. Modelle wie Bing Chat oder neuere GPT-Versionen versuchen dies zu lösen, indem sie Live-Websuche einbinden. Doch das klappt nur dann gut, wenn die KI die gefundene Information auch korrekt einordnet, auf verlässliche Quellen zugreift und nicht wiederum auf dieser Basis völligen Unsinn erzeugt.

Model Collapse: Wenn KI von KI lernt

Als Model Collapse („Modellkollaps“) wird ein Phänomen bezeichnet, bei dem Generationen von KI-Modellen durch das Anlernen KI-generierter Daten zunehmend entgleisen. Vereinfacht gesagt: Wenn KI A Inhalte erzeugt und KI B diese wieder erlernt, nimmt die Qualität der Ausgaben kontinuierlich ab. Dieses Phänomen wurde bereits in einigen Experimenten beobachtet. In einer Studie trainierten Forscher beispielsweise ein Sprachmodell zunächst auf rein menschlichen Daten und verwendeten daraufhin dessen eigens erzeugte Texte wieder als Trainingsgrundlage für das nächste Modell. Dies wiederholten sie einige Male, indem sie die Antworten neuer Modelle immer wieder für das Training der nächsten Generation nutzten. Das Ergebnis war alarmierend. Bereits das 10. „Generationen-Modell“ spuckte bei einer Testfrage nur noch sinnloses Kauderwelsch aus. Ein beteiligter Wissenschaftler beschrieb: „Irgendwann war das Modell praktisch völlig bedeutungslos.“ Genau dieses Phänomen ist der Modellkollaps.3

Für Anwender und Unternehmen ist daher wichtig, zu verstehen: Die Qualität von KI-Ausgaben hängt fundamental von der Qualität der Trainingsdaten ab. Sind die Daten veraltet, verzerrt oder von zweifelhafter Herkunft, überträgt sich das unweigerlich auf die Antworten der Modelle. Wachsamkeit gegenüber der Datenbasis wird damit zur Grundbedingung, wenn man KI-Systeme vertrauenswürdig einsetzen will.

Fazit: Wachsam bleiben im Umgang mit GenAI

Künstliche Intelligenz ist ein mächtiges Werkzeug, und wie bei jedem neuen Instrument müssen wir lernen, verantwortungsvoll damit umzugehen. Ein Autopilot im Flugzeug nimmt dem Piloten Arbeit ab, doch er entbindet ihn nicht davon, die Instrumente zu überwachen und im Notfall einzugreifen. Genauso verhält es sich mit generativer KI. Begegnen wir ihren Outputs mit gesundem Misstrauen, überprüfen wir die Ergebnisse und korrigieren wir nach, dann kann GenAI unseren Alltag bereichern, ohne zur Gefahr zu werden.

Der Beitrag Wenn KI Fakten erfindet: So gefährlich können fehlerhafte KI-Antworten sein erschien zuerst auf Business -Software- und IT-Blog – Wir gestalten digitale Wertschöpfung.