Die Studie »Poisoning Attacks on LLMs Require a Near-constant Number of Poison Samples« zeigt, dass schon rund 250 manipulierte Dokumente genügen, um selbst große Sprachmodelle mit falschen Informationen zu vergiften.
Mit vergleichsweise wenig Aufwand lässt sich Propaganda einschleusen oder fehlerhafter Code erzeugen, wenn KI in der Softwareentwicklung eingesetzt wird.
Damit wird künstliche Intelligenz zur größten Blackbox der IT.
Möchtest du mir antworten?
Schick mir eine Nachricht per E-Mail und lass uns ein Dialog beginnen. Du kannst mir auch per RSS oder Mastodon folgen.