Ein Viertel

Ich frage mich bei der nachstehenden Meldung, ob dies der Auslöser dafür sein könnte, dass die Produkte von Google kontinuierlich an Qualität einbüßen. Wie erwartet, weist Google jegliche Behauptungen dieser Art vehement zurück. Mike Faust schreibt in »Künstliche Intelligenz: Google erzeugt ein Viertel seines Codes mit KI« für golem.de Auch die Entwickler von Google verwenden für die Weiterentwicklung ihrer Produkte künstliche Intelligenz. Mittlerweile wurde ein Viertel des verwendeten Codes von KI generiert. Dieser werde geprüft und akzeptiert, bevor er zum Einsatz komme, sagte der CEO von Google und Alphabet, Sundar Pichai, während der Vorstellung des Geschäftsberichts zum 3. Quartal 2024. ...

30. Oktober 2024 · 1 Minute · 100 Wörter

Infrarotstrahlung der Körperwärme

Momentan bin ich in Kuba, wo es gerade sehr viele Mücken gibt. Daher habe ich den folgenden Artikel mit großem Interesse gelesen. Martina Janning, Leila Boucheligua und Richard Kraft schreiben in »Stechmücken finden Menschen über Infrarotstrahlung« für tagesschau.de Stechmücken werden durch das CO2 in ausgeatmeter Atemluft und bestimmte Körpergerüche angelockt, das war schon bekannt. Doch nun haben Forschende einen weiteren Faktor entdeckt, der Mücken auf die Spur von Menschen bringt: die Infrarotstrahlung der Körperwärme. Ihre Ergebnisse haben sie in der Fachzeitschrift Nature veröffentlicht. ...

5. September 2024 · 1 Minute · 83 Wörter

Verändert sich schneller

David Zauner schreibt in »Wenn Klimaforscher:innen nervös werden« für klimareporter.de Es ist besonders ein Satz, auf den Rockström in seinem Vortrag immer wieder zurückkehrt. “Erdsystem- und Klimawissenschaftler werden immer nervöser.” Denn der Planet, so Rockström, verändert sich schneller, als sie erwartet hätten.

31. August 2024 · 1 Minute · 42 Wörter

Greifen stets auf kontextuelles Lernen zurück

Anika Reckeweg schreibt in »Sprachmodelle wachsen nicht über sich hinaus« für heise.de Laut einem Forschungsteam der Technischen Universität (TU) Darmstadt und der University of Bath führt Skalierung von Großen Sprachmodellen (Large Language Models, LLM) nicht dazu, dass diese eigenständig Fähigkeiten entwickeln, die ihnen nicht antrainiert wurden. Die LLMs greifen stets auf kontextuelles Lernen zurück. Selbes Thema, andere Quelle: Silke Paradowski schreibt in Doch (noch) kein selbstständiges, komplexes Denken: Studie unter Leitung der TU zeigt Begrenztheit von ChatGPT & Co. für idw-online.de ...

14. August 2024 · 1 Minute · 213 Wörter

Wirtschaftlich sinnvoll sein können

Martin Böckmann schreibt in »Goldman Sachs stellt die Wirtschaftlichkeit von KI infrage« für golem.de Die Investmentbank Goldman Sachs hat einen Bericht veröffentlicht, in dem sich die Bank mit der Frage auseinandersetzt, ob die großen Summen, die derzeit in das Training von KI-Modellen gesteckt werden, überhaupt wirtschaftlich sinnvoll sein können. Die befragten Experten sind dazu unterschiedlicher Meinung, denn bisher sind die Verluste groß. ...

14. Juli 2024 · 1 Minute · 104 Wörter