Greifen stets auf kontextuelles Lernen zurück
Anika Reckeweg schreibt in »Sprachmodelle wachsen nicht über sich hinaus« für heise.de Laut einem Forschungsteam der Technischen Universität (TU) Darmstadt und der University of Bath führt Skalierung von Großen Sprachmodellen (Large Language Models, LLM) nicht dazu, dass diese eigenständig Fähigkeiten entwickeln, die ihnen nicht antrainiert wurden. Die LLMs greifen stets auf kontextuelles Lernen zurück. Selbes Thema, andere Quelle: Silke Paradowski schreibt in Doch (noch) kein selbstständiges, komplexes Denken: Studie unter Leitung der TU zeigt Begrenztheit von ChatGPT & Co. für idw-online.de ...