Nicht vor allem aus technischer Überlegenheit

In seinem Artikel »Revealing the Hidden Economics of Open Models in the AI Era« fasst Frank Nagle die Studie »The Latent Role of Open Models in the AI Economy« zusammen, die er gemeinsam mit Daniel Yue von der Georgia Tech verfasst hat. Er zeigt, wie deutlich offene KI-Modelle im aktuellen Markt unterschätzt werden. Grundlage ist ein ungewöhnlich umfangreicher Datensatz zu Nutzung, Preisen und Leistungsfähigkeit verschiedener Modelle. ...

19. November 2025 · 1 Minute · 167 Wörter

statistisch am wahrscheinlichsten

Dieter Petereit schreibt in »OpenAI o3 und o4-mini: Warum längeres Nachdenken die KI wirklich smart macht« für t3n.de Erstmals können diese Modelle agentenhaft agieren. Sie nutzen und kombinieren eigenständig alle verfügbaren Werkzeuge innerhalb von ChatGPT – von der Websuche über die Datenanalyse mit Python bis hin zur Bildanalyse und sogar Bilderzeugung. Sie entscheiden selbst, wann und wie sie diese Tools einsetzen, um komplexe, vielschichtige Probleme zu lösen. Dazu benötigen sie mehr Bedenkzeit. ...

20. April 2025 · 1 Minute · 189 Wörter

Deutlich weniger Hardware-Ressourcen

Kim Rixecker schreibt in »Deepseek überholt OpenAI und schickt Chipaktien auf Talfahrt: Das steckt dahinter« für t3n.de Statt also alle 671 Milliarden Parameter zu verwenden, kommen bei der Ausführung nur 37 Milliarden zum Einsatz. Das benötigt entsprechend deutlich weniger Hardware-Ressourcen und liefert dennoch überzeugende Ergebnisse. Das Ganze erinnert stark an das Wettrüsten um die erste bemannte Mondlandung in den 1960ern. Damals standen sich die USA und die Sowjetunion gegenüber, heute sind es die USA und China. ...

27. Januar 2025 · 1 Minute · 190 Wörter

Nicht zu echtem logischen Denken fähig

Ben Schwan schreibt in »KI und logisches Denken: Apple-Forscher zweifeln – und warnen« für heise.de Insgesamt, so die Hypothese der Apple-Forscher, findet in den Modellen kein logisches Denken statt, was sich bei einer “Verwirrung” der Modelle durch zusätzliche Informationen zeigt, was wiederum das Ergebnis verschlechtert. “Wir vermuten, dass dieser Rückgang auf die Tatsache zurückzuführen ist, dass die derzeitigen LLMs nicht zu echtem logischen Denken fähig sind; stattdessen versuchen sie, die Reasoning-Schritte, die in ihren Trainingsdaten beobachtet wurden, nachzuahmen.” Das heißt: Auch eine “denkende KI” orientiert sich stets an dem, was sie aus den Trainingsdaten kennt. ...

17. Oktober 2024 · 1 Minute · 95 Wörter