statistisch am wahrscheinlichsten

Dieter Petereit schreibt in »OpenAI o3 und o4-mini: Warum längeres Nachdenken die KI wirklich smart macht« für t3n.de Erstmals können diese Modelle agentenhaft agieren. Sie nutzen und kombinieren eigenständig alle verfügbaren Werkzeuge innerhalb von ChatGPT – von der Websuche über die Datenanalyse mit Python bis hin zur Bildanalyse und sogar Bilderzeugung. Sie entscheiden selbst, wann und wie sie diese Tools einsetzen, um komplexe, vielschichtige Probleme zu lösen. Dazu benötigen sie mehr Bedenkzeit. ...

20. April 2025 · 1 Minute · 189 Wörter

Deutlich weniger Hardware-Ressourcen

Kim Rixecker schreibt in »Deepseek überholt OpenAI und schickt Chipaktien auf Talfahrt: Das steckt dahinter« für t3n.de Statt also alle 671 Milliarden Parameter zu verwenden, kommen bei der Ausführung nur 37 Milliarden zum Einsatz. Das benötigt entsprechend deutlich weniger Hardware-Ressourcen und liefert dennoch überzeugende Ergebnisse. Das Ganze erinnert stark an das Wettrüsten um die erste bemannte Mondlandung in den 1960ern. Damals standen sich die USA und die Sowjetunion gegenüber, heute sind es die USA und China. ...

27. Januar 2025 · 1 Minute · 190 Wörter

Nicht zu echtem logischen Denken fähig

Ben Schwan schreibt in »KI und logisches Denken: Apple-Forscher zweifeln – und warnen« für heise.de Insgesamt, so die Hypothese der Apple-Forscher, findet in den Modellen kein logisches Denken statt, was sich bei einer “Verwirrung” der Modelle durch zusätzliche Informationen zeigt, was wiederum das Ergebnis verschlechtert. “Wir vermuten, dass dieser Rückgang auf die Tatsache zurückzuführen ist, dass die derzeitigen LLMs nicht zu echtem logischen Denken fähig sind; stattdessen versuchen sie, die Reasoning-Schritte, die in ihren Trainingsdaten beobachtet wurden, nachzuahmen.” Das heißt: Auch eine “denkende KI” orientiert sich stets an dem, was sie aus den Trainingsdaten kennt. ...

17. Oktober 2024 · 1 Minute · 95 Wörter