Ben Schwan schreibt in »KI und logisches Denken: Apple-Forscher zweifeln – und warnen« für heise.de
Insgesamt, so die Hypothese der Apple-Forscher, findet in den Modellen kein logisches Denken statt, was sich bei einer “Verwirrung” der Modelle durch zusätzliche Informationen zeigt, was wiederum das Ergebnis verschlechtert. “Wir vermuten, dass dieser Rückgang auf die Tatsache zurückzuführen ist, dass die derzeitigen LLMs nicht zu echtem logischen Denken fähig sind; stattdessen versuchen sie, die Reasoning-Schritte, die in ihren Trainingsdaten beobachtet wurden, nachzuahmen.” Das heißt: Auch eine “denkende KI” orientiert sich stets an dem, was sie aus den Trainingsdaten kennt.
Möchtest du mir antworten?
Schick mir eine Nachricht per E-Mail und lass uns ein Dialog beginnen. Du kannst mir auch per RSS oder Mastodon folgen.