LLMs plappern nur und denken nicht
– daran ändern auch Erweiterungen nichts
Large Language Models, kurz LLM, wie ChatGPT sind mittlerweile zum Synonym für KI-Anwendungen geworden. Dass sie systembedingt nur nachplappern, was sie irgendwo im Internet aufgeschnappt haben, macht die Ergebnisse eher noch faszinierender.
Eine aktuelle Studie zeigt jetzt, dass sich daran nichts ändert, auch wenn Erweiterungen wie Gedankenketten (Chain of Thought, CoT) verwendet werden.
Das ist jetzt auch wenig überraschend, da diese Techniken ja nichts anderes machen, als Prompts mit bestimmten Phrasen zu erweitern, wie z. B. „Denken wir Schritt für Schritt nach“. Natürlich hilft diese Ausgabe, nachzuvollziehen, wie eine Antwort zustande kommt, und eventuell auch zu erkennen, wo die Maschine falsch abgebogen ist. Aber mich nervt aktuell dieser Hype, bei dem versucht wird, LLMs irgendwie zu erweitern, und diese Erweiterung dann aus Marketinggründen als „Denken“ verkauft wird.
Ob für diese Erkenntnis einer Studie bedarf, oder man nur mal Gemini fragen muss, wie das Ganze funktioniert, darf jeder für sich selbst entscheiden.
