Nicht leisten

Richard Stallman hat die Open-Source-Bewegung geprägt wie kaum ein anderer. Doch seine Worte haben heute nicht mehr das Gewicht von früher. Viele seiner Aussagen wirken beliebig, ihre Relevanz schwindet. Folgender Gedanke aber bleibt zentral: Monika Ermert schreibt in »Richard Stallman: “Chatbots sind Bullshit-Generatoren”« für heise.de Staaten könnten es sich gar nicht leisten, ihre Souveränität an große Konzerne abzugeben, betont Stallman vor einem vollen Hörsaal.

23. Oktober 2025 · 1 Minute · 64 Wörter

Scientific thinking

Niklas Barning schreibt in »What Ghosts Taught Me About Design« That got me thinking. Just because you’re using scientific tools doesn’t mean you’re doing science. Scientific thinking is something you have to learn. Otherwise, you’re just working with a bunch of biases, like the „Scientists“ in the Documentary Behind the Curve.

30. Juni 2025 · 1 Minute · 51 Wörter

Greifen stets auf kontextuelles Lernen zurück

Anika Reckeweg schreibt in »Sprachmodelle wachsen nicht über sich hinaus« für heise.de Laut einem Forschungsteam der Technischen Universität (TU) Darmstadt und der University of Bath führt Skalierung von Großen Sprachmodellen (Large Language Models, LLM) nicht dazu, dass diese eigenständig Fähigkeiten entwickeln, die ihnen nicht antrainiert wurden. Die LLMs greifen stets auf kontextuelles Lernen zurück. Selbes Thema, andere Quelle: Silke Paradowski schreibt in Doch (noch) kein selbstständiges, komplexes Denken: Studie unter Leitung der TU zeigt Begrenztheit von ChatGPT & Co. für idw-online.de ...

14. August 2024 · 1 Minute · 213 Wörter

Widerstandsfähiger gegen Veränderungen

Die Studie »Learning while Sleeping: Integrating Sleep-Inspired Consolidation with Human Feedback Learning« von Imene Tarakli und Alessandro Di Nuovo von der Sheffield Hallam University wurde auf der IEEE International Conference on Development and Learning (ICDL) 2024 veröffentlicht. Sie untersucht, wie Maschinen­lernprozesse besser werden können, wenn man sie an Mechanismen orientiert, die im menschlichen Gehirn beim Schlafen stattfinden. Die Autorinnen und Autoren schlagen ein neues Lernmodell vor, das sie INFORM nennen. Zuerst lernt ein System Verhaltensweisen aus menschlichem Feedback. Danach verarbeitet es diese Erfahrungen wiederholt im „Offline-Modus“, ähnlich wie das Gehirn im Schlaf Erinnerungen festigt. In ihren Experimenten zeigte INFORM, dass daraus robustere und besser verallgemeinerbare Strategien entstehen als bei herkömmlichem Lernen nur aus unmittelbarem Feedback. Die Ergebnisse deuten darauf hin, dass dieser Ansatz helfen kann, lernende Agenten widerstandsfähiger gegen Veränderungen in ihrer Umgebung zu machen.  ...

23. Mai 2024 · 1 Minute · 136 Wörter

:has()

Ahmad Shadeed demonstriert in einem interaktiven Artikel die Möglichkeiten des CSS :has Selektors. Es ist wirklich beeindruckend zu sehen, welche fortwährend neuen Gestaltungsmöglichkeiten sich dank CSS eröffnen, die einst auf Flash oder JavaScript angewiesen waren.

26. März 2024 · 1 Minute · 35 Wörter