Anika Reckeweg schreibt in »Sprachmodelle wachsen nicht über sich hinaus« für heise.de

Laut einem Forschungsteam der Technischen Universität (TU) Darmstadt und der University of Bath führt Skalierung von Großen Sprachmodellen (Large Language Models, LLM) nicht dazu, dass diese eigenständig Fähigkeiten entwickeln, die ihnen nicht antrainiert wurden. Die LLMs greifen stets auf kontextuelles Lernen zurück.

Selbes Thema, andere Quelle:

Silke Paradowski schreibt in Doch (noch) kein selbstständiges, komplexes Denken: Studie unter Leitung der TU zeigt Begrenztheit von ChatGPT & Co. für idw-online.de

Die Autor:innen der aktuellen Studie kommen nun allerdings zu dem Schluss, dass es für die mutmaßliche Entwicklung eines differenzierten Denkvermögens der Modelle keine Beweise gebe. Stattdessen erlangten die LLMs die oberflächliche Fertigkeit, relativ einfachen Anweisungen zu folgen, wie die Forschenden zeigten. Von dem, was Menschen können, seien die Systeme noch weit entfernt. Die Studie wurde von TU-Informatikprofessorin Iryna Gurevych und ihrem Kollegen Dr. Harish Tayyar Madabushi von der University of Bath in Großbritannien geleitet.

Im Juli 2023 habe ich bereits einen Artikel verlinkt, der zu ähnlichen Erkenntnissen kam – allerdings ohne die Unterstützung einer Studie. Auch im Dezember 2023 habe ich einen Artikel geteilt, der die Thematik der KI gut erklärt, obwohl er ebenfalls ohne Studien auskam. Es ist erfreulich zu sehen, dass diese Ansichten nun durch fundierte Studien gestützt werden können.