Nicht leisten

Richard Stallman hat die Open-Source-Bewegung geprägt wie kaum ein anderer. Doch seine Worte haben heute nicht mehr das Gewicht von früher. Viele seiner Aussagen wirken beliebig, ihre Relevanz schwindet. Folgender Gedanke aber bleibt zentral: Monika Ermert schreibt in »Richard Stallman: “Chatbots sind Bullshit-Generatoren”« für heise.de Staaten könnten es sich gar nicht leisten, ihre Souveränität an große Konzerne abzugeben, betont Stallman vor einem vollen Hörsaal.

23. Oktober 2025 · 1 Minute · 64 Wörter

Scientific thinking

Niklas Barning schreibt in »What Ghosts Taught Me About Design« That got me thinking. Just because you’re using scientific tools doesn’t mean you’re doing science. Scientific thinking is something you have to learn. Otherwise, you’re just working with a bunch of biases, like the „Scientists“ in the Documentary Behind the Curve.

30. Juni 2025 · 1 Minute · 51 Wörter

Greifen stets auf kontextuelles Lernen zurück

Anika Reckeweg schreibt in »Sprachmodelle wachsen nicht über sich hinaus« für heise.de Laut einem Forschungsteam der Technischen Universität (TU) Darmstadt und der University of Bath führt Skalierung von Großen Sprachmodellen (Large Language Models, LLM) nicht dazu, dass diese eigenständig Fähigkeiten entwickeln, die ihnen nicht antrainiert wurden. Die LLMs greifen stets auf kontextuelles Lernen zurück. Selbes Thema, andere Quelle: Silke Paradowski schreibt in Doch (noch) kein selbstständiges, komplexes Denken: Studie unter Leitung der TU zeigt Begrenztheit von ChatGPT & Co. für idw-online.de ...

14. August 2024 · 1 Minute · 213 Wörter

:has()

Ahmad Shadeed demonstriert in einem interaktiven Artikel die Möglichkeiten des CSS :has Selektors. Es ist wirklich beeindruckend zu sehen, welche fortwährend neuen Gestaltungsmöglichkeiten sich dank CSS eröffnen, die einst auf Flash oder JavaScript angewiesen waren.

26. März 2024 · 1 Minute · 35 Wörter