Diese Studie »AI models collapse when trained on recursively generated data« zeigt auf spannende Weise, was passiert, wenn eine KI ihre eigenen Texte als Grundlage verwendet. Wird dieser Prozess mehrfach wiederholt, also die KI immer wieder mit ihren eigenen generierten Texten gefüttert, zeigt sich spätestens beim neunten Durchlauf ein deutliches Muster: Der Output wird zunehmend unsinniger.
Deshalb müssen Entwickler von KI-Modellen genau abwägen, welche Quellen wirklich wertvoll sind und welche besser vermieden werden sollten. In diesem Zusammenhang könnte der Einsatz digitaler Fingerabdrücke in Texten sinnvoll, wenn nicht sogar zwingend notwendig werden, um zu verhindern, dass KIs ihre eigenen Ergüsse fressen1. Technisch gesehen wird dies jedoch keinen vollständigen Schutz bieten können, da diese Mechanismen durch den Einsatz verschiedener GPT-Modelle umgangen werden könnten. Selbst wenn sich Anbieter von KIs auf gemeinsame Methoden für Fingerabdrücke einigen, werden wirklich freie Chatbots, die auf lokaler Hardware laufen, diese Maßnahmen immer umgehen können.
Vielleicht ist diese Technologie auch zum Scheitern verurteilt – das wird die Zukunft zeigen.
Das Sprichwort “eat your own dog food” trifft hier besser denn je. ↩︎
Möchtest du mir antworten?
Schick mir eine Nachricht per E-Mail und lass uns ein Dialog beginnen. Du kannst mir auch per RSS oder Mastodon folgen.