SOOFI

Ich bin heute zum ersten Mal auf den Begriff »SOOFI«, der für Sovereign Open Source Foundation Models steht. Der Bundesverband der Unternehmen der Künstlichen Intelligenz in Deutschland e.V. schreibt dazu folgendes: Ein wichtiger Schritt für die europäische KI-Souveränität: Unter SOOFI arbeiten zukünftig Wissenschaftlerinnen und Wissenschaftler aus 6 führenden deutschen Forschungseinrichtungen zusammen, um souveräne europäische Alternativen zu KI-Technologien aus den USA und China bereitzustellen. Der Fokus liegt darin, mit den Modellen einen Beitrag für die industrielle Nutzung von KI zu leisten. Gefördert vom Bundeswirtschaftsministerium für Wirtschaft und Energie und betrieben auf der Industrial AI Cloud der Deutschen Telekom, legt SOOFI den Grundstein für ein unabhängiges europäisches KI-Ökosystem. ...

19. November 2025 · 1 Minute · 147 Wörter

statistisch am wahrscheinlichsten

Dieter Petereit schreibt in »OpenAI o3 und o4-mini: Warum längeres Nachdenken die KI wirklich smart macht« für t3n.de Erstmals können diese Modelle agentenhaft agieren. Sie nutzen und kombinieren eigenständig alle verfügbaren Werkzeuge innerhalb von ChatGPT – von der Websuche über die Datenanalyse mit Python bis hin zur Bildanalyse und sogar Bilderzeugung. Sie entscheiden selbst, wann und wie sie diese Tools einsetzen, um komplexe, vielschichtige Probleme zu lösen. Dazu benötigen sie mehr Bedenkzeit. ...

20. April 2025 · 1 Minute · 189 Wörter

More unpredictable

Jeffrey Dastin schreibt in »AI with reasoning power will be less predictable, Ilya Sutskever says« für reuters.com The more a system reasons, the more unpredictable it becomes. — Ilya Sutskever

16. Dezember 2024 · 1 Minute · 30 Wörter

Nicht zu echtem logischen Denken fähig

Ben Schwan schreibt in »KI und logisches Denken: Apple-Forscher zweifeln – und warnen« für heise.de Insgesamt, so die Hypothese der Apple-Forscher, findet in den Modellen kein logisches Denken statt, was sich bei einer “Verwirrung” der Modelle durch zusätzliche Informationen zeigt, was wiederum das Ergebnis verschlechtert. “Wir vermuten, dass dieser Rückgang auf die Tatsache zurückzuführen ist, dass die derzeitigen LLMs nicht zu echtem logischen Denken fähig sind; stattdessen versuchen sie, die Reasoning-Schritte, die in ihren Trainingsdaten beobachtet wurden, nachzuahmen.” Das heißt: Auch eine “denkende KI” orientiert sich stets an dem, was sie aus den Trainingsdaten kennt. ...

17. Oktober 2024 · 1 Minute · 95 Wörter