T-förmigen Wissens

Golo Roden schreibt in »Warum T-förmiges Wissen in Zeiten von KI wichtiger wird denn je« für heise.de Das Konzept des T-förmigen Wissens stammt ursprünglich aus dem Management und beschreibt ein Kompetenzprofil, das zwei Dimensionen vereint. Der vertikale Balken des T steht für tiefe Expertise in einem spezifischen Fachgebiet. Hier geht es um echte Meisterschaft, um ein Verständnis, das über die Oberfläche hinausreicht und auch die Randfälle, die Geschichte und die Designentscheidungen eines Themenfeldes umfasst. Der horizontale Balken repräsentiert ein breites Grundlagenwissen, das über die eigene Spezialisierung hinausreicht und es ermöglicht, Verbindungen herzustellen und in verschiedenen Kontexten handlungsfähig zu sein. ...

18. Februar 2026 · 1 Minute · 99 Wörter

Nicht leisten

Richard Stallman hat die Open-Source-Bewegung geprägt wie kaum ein anderer. Doch seine Worte haben heute nicht mehr das Gewicht von früher. Viele seiner Aussagen wirken beliebig, ihre Relevanz schwindet. Folgender Gedanke aber bleibt zentral: Monika Ermert schreibt in »Richard Stallman: “Chatbots sind Bullshit-Generatoren”« für heise.de Staaten könnten es sich gar nicht leisten, ihre Souveränität an große Konzerne abzugeben, betont Stallman vor einem vollen Hörsaal.

23. Oktober 2025 · 1 Minute · 64 Wörter

Scientific thinking

Niklas Barning schreibt in »What Ghosts Taught Me About Design« That got me thinking. Just because you’re using scientific tools doesn’t mean you’re doing science. Scientific thinking is something you have to learn. Otherwise, you’re just working with a bunch of biases, like the „Scientists“ in the Documentary Behind the Curve.

30. Juni 2025 · 1 Minute · 51 Wörter

Greifen stets auf kontextuelles Lernen zurück

Anika Reckeweg schreibt in »Sprachmodelle wachsen nicht über sich hinaus« für heise.de Laut einem Forschungsteam der Technischen Universität (TU) Darmstadt und der University of Bath führt Skalierung von Großen Sprachmodellen (Large Language Models, LLM) nicht dazu, dass diese eigenständig Fähigkeiten entwickeln, die ihnen nicht antrainiert wurden. Die LLMs greifen stets auf kontextuelles Lernen zurück. Selbes Thema, andere Quelle: Silke Paradowski schreibt in Doch (noch) kein selbstständiges, komplexes Denken: Studie unter Leitung der TU zeigt Begrenztheit von ChatGPT & Co. für idw-online.de ...

14. August 2024 · 1 Minute · 213 Wörter

Widerstandsfähiger gegen Veränderungen

Die Studie »Learning while Sleeping: Integrating Sleep-Inspired Consolidation with Human Feedback Learning« von Imene Tarakli und Alessandro Di Nuovo von der Sheffield Hallam University wurde auf der IEEE International Conference on Development and Learning (ICDL) 2024 veröffentlicht. Sie untersucht, wie Maschinen­lernprozesse besser werden können, wenn man sie an Mechanismen orientiert, die im menschlichen Gehirn beim Schlafen stattfinden. Die Autorinnen und Autoren schlagen ein neues Lernmodell vor, das sie INFORM nennen. Zuerst lernt ein System Verhaltensweisen aus menschlichem Feedback. Danach verarbeitet es diese Erfahrungen wiederholt im „Offline-Modus“, ähnlich wie das Gehirn im Schlaf Erinnerungen festigt. In ihren Experimenten zeigte INFORM, dass daraus robustere und besser verallgemeinerbare Strategien entstehen als bei herkömmlichem Lernen nur aus unmittelbarem Feedback. Die Ergebnisse deuten darauf hin, dass dieser Ansatz helfen kann, lernende Agenten widerstandsfähiger gegen Veränderungen in ihrer Umgebung zu machen.  ...

23. Mai 2024 · 1 Minute · 136 Wörter