Wie dick die Fleischscheiben

Tagesschau schreibt in »Einheitliche Regeln für die Döner-Zubereitung?« Genau geregelt würde darüber hinaus auch, welche Zutaten für die Marinade zulässig sind, wie dick die Fleischscheiben zu sein haben und wie lange mariniert werden muss. Aus meiner Sicht ist das ein schwieriges Thema für uns Deutsche. Wer schon einmal eine originale Bolognese oder Pekingente probiert hat, weiß, dass wir Deutschen oft unsere eigene Interpretation bevorzugen. ...

16. August 2024 · 1 Minute · 82 Wörter

Kupfernetz abzuschalten

Achim Sawall schreibt in Deutsche Glasfaser: Brauchen Fahrplan für Kupferabschaltung in Deutschland für golem.de Doch auch Deutsche Glasfaser will nach eigenem Vorteil abschalten. So schlägt Pfisterer vor, in der nordrhein-westfälischen Kreisstadt Borken, die eine Glasfaserquote von bereits 95,8 Prozent vorweisen kann, das Kupfernetz abzuschalten. Dort hat das Unternehmen seinen Hauptsitz. Es wirkt befremdlich, wenn ein Unternehmen darauf drängt, dass das Kupfernetz der Konkurrenz schneller abgeschaltet werden soll, um die eigene Glasfaserstrategie voranzutreiben. Die Entscheidung, auf Glasfaser umzusteigen, sollte den Kunden selbst überlassen bleiben. Der Markt wird das in seinem eigenen Tempo regeln. Sollte dieser Wandel langsamer vonstattengehen, könnte es darauf hindeuten, dass die Telekom mit ihrem Fokus auf Vectoring richtig lag, bis ein realer Bedarf nach höheren Bandbreiten besteht.

15. August 2024 · 1 Minute · 119 Wörter

So genannte Trinkfestigkeit

Anne Beck und Andreas Heinz schreiben in »Macht regelmäßiges Trinken abhängig?« für spektrum.de Auch die so genannte Trinkfestigkeit (bei der sich die Wirkung von Alkohol vergleichsweise spät zeigt) ist zumindest teilweise erblich und trägt dazu bei, dass den Betroffenen Warnzeichen wie Übelkeit, motorische Probleme oder Schwindel fehlen. In der Annahme, sie würden Alkohol gut »vertragen«, trinken diese Menschen oft mehr, was letztlich häufiger zu einer Suchterkrankung führt. ...

15. August 2024 · 1 Minute · 123 Wörter

Greifen stets auf kontextuelles Lernen zurück

Anika Reckeweg schreibt in »Sprachmodelle wachsen nicht über sich hinaus« für heise.de Laut einem Forschungsteam der Technischen Universität (TU) Darmstadt und der University of Bath führt Skalierung von Großen Sprachmodellen (Large Language Models, LLM) nicht dazu, dass diese eigenständig Fähigkeiten entwickeln, die ihnen nicht antrainiert wurden. Die LLMs greifen stets auf kontextuelles Lernen zurück. Selbes Thema, andere Quelle: Silke Paradowski schreibt in Doch (noch) kein selbstständiges, komplexes Denken: Studie unter Leitung der TU zeigt Begrenztheit von ChatGPT & Co. für idw-online.de ...

14. August 2024 · 1 Minute · 213 Wörter

Ohne jegliche Nutzerinteraktion Schadcode auszuführen

Marc Stöckel schreibt in »Windows-Systeme per IPv6 aus der Ferne angreifbar« für golem.de In allen gängigen Windows-Versionen klafft eine äußerst gefährliche Sicherheitslücke, die es Angreifern ermöglicht, auf einem anfälligen Zielsystem aus der Ferne und ohne jegliche Nutzerinteraktion Schadcode auszuführen. Die besagte Schwachstelle ist als CVE-2024-38063 registriert und erreicht mit einem CVSS von 9,8 einen kritischen Schweregrad.

14. August 2024 · 1 Minute · 56 Wörter