Nicht einfach reparieren

Ich habe etwas Neues gelernt! Obwohl es beinahe offensichtlich ist, war es mir nicht klar. Aktuell können wir fehlerhafte Large Language Models nicht einfach reparieren, wenn sie Fehler machen oder falsche Informationen verbreiten. Das liegt daran, dass LLMs mithilfe neuronaler Netze kreiert werden. Neuronale Netze lernen eigenständig und erstellen mathematische Wahrscheinlichkeiten, indem sie bestimmte Dinge wiederholt mit kleinen Abweichungen berechnen. Wenn man also etwas im LLM ändern möchte, müsste man unzählige dieser Wahrscheinlichkeiten anpassen. Dieser Prozess ist so aufwendig, dass es einfacher ist, ein neues LLM zu erstellen. Deshalb werden GPTs auch in größeren Versionssprüngen veröffentlicht. ...

2. Mai 2024 · 1 Minute · 120 Wörter