OpenAI o1: Revolutioniert dieses Sprachmodell das Denken von KIs?

Mit innerem Monolog zur Super-KI? OpenAI bringt mit o1 ein Modell an den Start, das denkt wie ein Mensch: Schritt für Schritt. Was dahinter steckt, warum das die KI-Welt verändert – und ob das schon AGI ist.

Denken wie ein Mensch – mit Chain of Thought

Seit dem 12. September 2024 ist o1 als „o1-preview“ für ChatGPT Plus verfügbar – und in der Code-Variante „o1-mini“. Das Besondere: o1 denkt erst nach, bevor es antwortet. Dafür nutzt es eine interne Gedankenstruktur, die auf der Methode des Chain-of-Thought (CoT) basiert.​

Statt direkt eine Antwort zu liefern, erstellt o1 eine Kette aus Zwischenschritten – ganz wie wir Menschen, wenn wir Probleme lösen. Das Modell wurde mit Reinforcement Learning und ausgewählten, bereinigten Daten trainiert.​

Denkstruktur von o1 – der Weg von der Frage zur Antwort; Bildquelle: 1

Warum Chain-of-Thought-Promting ein Gamechanger ist

Die Einführung des CoT-Promptings hat es dem Modell ermöglicht, insbesondere bei mathematischen und programmierungstechnischen Fragestellungen bisher unerreichte Ergebnisse zu erzielen. Durch schrittweises Denken erhöht sich die Antwortqualität in komplexen Bereichen wie Mathematik, Biologie und Physik enorm. In manchen Tests erreichte es das Niveau der 500 besten Studierenden in den USA.

o1 im Vergleich zu gpt4o – Testergebnisse auf Machine-Learning-Benchmarks; Bildquelle: 2

Obwohl CoT zu längeren Antwortzeiten führen kann, überwiegen die Vorteile. Die Methodik verbessert die Transparenz der Antworten, da der Denkprozess des Modells nun sichtbar wird. Das ist nicht nur ein Fortschritt in Sachen Erklärbarkeit, sondern auch bei der Sicherheit: So kann besser überwacht werden, ob die KI sich an Regeln hält oder Fehler macht.

Automatisches Denken statt Beispiellernen

Ein Durchbruch: Statt dem Modell immer Beispiele zu liefern, versucht OpenAI mit „Auto-CoT“, dass „o1“ selbst Gedankenketten generiert. Das funktioniert über Zero-Shot-Lernen – also nur mit der Anweisung:
„Denke Schritt für Schritt bei der Generierung deiner Antwort.“

In Tests waren diese automatisch erzeugten CoTs oft sogar besser als manuell erstellte.

Ablauf von Automatic COT-Prompting; Bildquelle: 3

Sicherheitsaspekte und Herausforderungen

Ein besonderer Vorteil des CoT-Promptings liegt im Bereich der Sicherheit. Durch die Integration von Sicherheitsregeln in den Gedankengang des Modells können Regelverletzungen minimiert werden. Ein Problem bleibt jedoch bestehen: die Neigung von „o1“ zu sogenannten Halluzinationen, also das Erfinden von falschen Informationen wie fiktiven URLs.

Künstliche Allgemeine Intelligenz – Ein realistischer Ausblick?

Viele Forscher spekulieren, ob „o1“ der erste Schritt hin zu einer echten Künstlichen Allgemeinen Intelligenz (AGI) ist. Während „o1“ beeindruckende Ergebnisse bei der Beantwortung komplexer Fragen liefert, bleibt es aktuell noch hinter der Fähigkeit zurück, vollständig autonome Aufgaben wie einen „Remote-Job“ eigenständig zu übernehmen. Die Reise zur AGI ist also noch nicht abgeschlossen, doch das Potenzial von Modellen wie „o1“ ist unbestreitbar.

OpenAI arbeitet bereits an der nächsten Generation von Modellen, wie „Orion“, und plant, synthetische Trainingsdaten zu nutzen, um das Potenzial weiter zu steigern. Es bleibt spannend, welche Rolle „o1“ in der Zukunft der KI-Forschung spielen wird.4

Fazit: Der nächste Meilenstein – aber noch nicht das Ziel

Mit dem Chain-of-Thought-Prinzip setzt OpenAI o1 neue Maßstäbe im KI-Denken: strukturierter, nachvollziehbarer und leistungsfähiger. Besonders in komplexen Fachgebieten zeigt das Modell beeindruckende Fortschritte. Die Fähigkeit, eigene Denkschritte zu generieren, rückt uns einen Schritt näher an echte künstliche Allgemeine Intelligenz. Doch trotz aller Innovationskraft bleibt o1 ein Werkzeug mit Grenzen – Halluzinationen und fehlende Autonomie zeigen, dass die Reise zur AGI noch andauert. Die Zukunft bleibt spannend: Welche Schritte folgen als Nächstes?

Wenn du mehr über o1 erfahren möchtest, findest du den ausführlichen Fachartikel hier:

Wie, Jason and Xuezhi, Wang and Dale, Schuurmans et al. Chain-of-Thought Prompting Elicits Reasoning in Large Language Models. Google Research, Brain Team, 2023. OpenAI. Learning to reason with LLMs. https://openai.com/index/learning-to-reason-with-llms/, 2024. Zugriff am: [2024-09-19]. Zhang, Zhuosheng and Aston, Zhang et al. Automatic Chain of Thought Prompting in Large Language Models. Shanghai Jiao Tong University, Amazon Web Services, 2022. OpenAI. OpenAI O1 System Card, Sept 12, 2024.
Perplexity AI. AI’s chain of thought explained. https://www.perplexity.ai/page/ai-s-chain-of-thought-explaine-uvCWFvjKTrK8Y1b94WjaWg, 2024. Zugriff am: [2024-09-19].
Aschenbrenner, Leopold. Situational Awareness: The Decade Ahead, June 2024.
ComputerBase. Projekt Stargate: Microsoft und OpenAI planen Supercomputer für 100 Mrd. Dollar. https://www.computerbase.de/2024-03/projekt-stargate-microsoft-und-openai-planen-supercomputer-fuer-100-mrd-dollar/, 2024. Zugriff am: [2024-09-19].
ComputerBase.
Strawberry und Orion: OpenAI könnte GPT-4-Nachfolger im Herbst starten lassen. https://www.computerbase.de/2024-08/strawberry-und-orion-openai-koennte-gpt-4-nachfolger-im-herbst-starten-lassen/, 2024. Zugriff am: [2024-09-19].

Der Beitrag OpenAI o1: Revolutioniert dieses Sprachmodell das Denken von KIs? erschien zuerst auf Business -Software- und IT-Blog – Wir gestalten digitale Wertschöpfung.