Thought of Search: Effizientes Planen mit LLMs

KI wird immer leistungsfähiger – aber auch effizient? Besonders bei Planungsproblemen stößt sie oft an ihre Grenzen. Doch ein neuer Ansatz könnte das ändern: Thought of Search (ToS). Diese Methode lässt KI erst nachdenken, bevor sie sucht – und spart so wertvolle Rechenressourcen.

Was ist Thought of Search?

Thought of Search ist ein Konzept, bei dem ein LLM (Large Language Model) genutzt wird, um wichtige Bausteine in Form von Funktionen (Code) für die Lösung von Planungsproblemen zu erstellen. Die Idee: Zuerst nachdenken, dann suchen. Dadurch werden Suchprozesse effizienter und ressourcenschonender.

Anstatt die KI während des gesamten Planungsprozesses aktiv zu nutzen, wird sie hier einmalig eingesetzt, um zwei spezielle Funktionen zu erstellen:

Nachfolgefunktion: Definiert mögliche nächste Schritte (Nachfolgezustände)

Zielfunktion: Prüft, ob ein Zustand das gewünschte Ziel erreicht hat

Besonders bei rechenintensiven Problemen steigert dieser Ansatz die Effizienz enorm.

ToS in Aktion: So funktioniert das Konzept

Ein einfaches Beispiel verdeutlicht, wie ToS die Effizienz steigern kann:

Stell dir vor, du möchtest ohne Wegbeschreibung von Punkt A nach Punkt B durch eine Stadt navigieren. Ohne Planung müsstest du an jeder Kreuzung neu entscheiden – ein zeitaufwendiger Prozess.

Mit ToS hingegen wird nicht der gesamte Weg vorgegeben, jedoch die Werkzeuge bereitgestellt, um den besten Weg zu planen. Anstatt an jeder Kreuzung anzuhalten und nachzudenken, wird im Vorfeld festgelegt, wie Entscheidungen effizient getroffen werden können. Das spart Zeit, da du unterwegs nicht ständig neu überlegen musst. Abbildung 1 und 2 veranschaulichen dieses Beispiel.

Beispiel für die Wegfindung ohne Stadtplan. Quelle: eigene Darstellung.
Beispiel für die Wegfindung mit vorheriger Planung. Quelle: eigene Darstellung.

Vorteile von Thought of Search

Schnellere Lösungsfindung

Effiziente Ressourcennutzung

Reduzierte Rechenkosten

Die Rolle des Menschen in ToS

ToS arbeitet nicht völlig autonom. Der Mensch übernimmt eine entscheidende Rolle bei der Validierung des Codes. Falls die generierten Funktionen ungenau sind, kann das LLM erneut aufgerufen werden, um Optimierungen vorzunehmen. Das Zusammenspiel von Mensch und KI sorgt für präzise Ergebnisse.

Fazit: Effizienter suchen mit Thought of Search

Effizienz ist das zentrale Merkmal von Thought of Search. Durch die Generierung von Suchkomponenten mithilfe großer Sprachmodelle können nicht nur Lösungen gefunden, sondern auch ressourcenschonend erarbeitet werden. Der Mensch spielt dabei eine wichtige Rolle zur Validierung der Funktionen. Diese enge Zusammenarbeit zwischen Mensch und KI stellt einen präzisen und effizienten Prozess sicher. Das LLM wird nur dann erneut aufgerufen, wenn es notwendig ist, wodurch unnötige Ressourcen gespart werden können.

Wie geht es weiter? In einem nächsten Beitrag werden wir AutoToS vorstellen – die automatisierte Version von Thought of Search.1

Thought of Search: Planning with Language Models Through The Lens of Efficiency. URL: https://arxiv.org/pdf/2404.11833 (16.10.2024)

Der Beitrag Thought of Search: Effizientes Planen mit LLMs erschien zuerst auf Business -Software- und IT-Blog – Wir gestalten digitale Wertschöpfung.