Wilder Westen

Es ist ironisch, dass sich openAI, das selbst Inhalte adaptiert, nun verärgert zeigt, wenn andere das Gleiche tun. Es ist wirklich ein wilder Westen in der Welt der künstlichen Intelligenz. Jess Weatherbed schreibt in »OpenAI has evidence that its models helped train China’s DeepSeek« für theverge.com OpenAI and Microsoft are investigating whether the Chinese rival used OpenAI’s API to integrate OpenAI’s AI models into DeepSeek’s own models, according to Bloomberg. The outlet’s sources said Microsoft security researchers detected that large amounts of data were being exfiltrated through OpenAI developer accounts in late 2024, which the company believes are affiliated with DeepSeek. ...

29. Januar 2025 · 1 Minute · 138 Wörter

KI-Modelle damit zu trainieren

Tom Leon Zacharek schreibt in »Urheberrecht: Indische Nachrichtenmedien verklagen OpenAI« für heise.de In Indien haben sich bekannte Nachrichtenmedien einer bestehenden Klage gegen die Entwickler von ChatGPT angeschlossen. Der Indian Express, die Hindustan Times und andere werfen OpenAI vor, ihre Inhalte wissentlich zu nutzen und zu speichern, um diese über ChatGPT auszuspielen und ihre KI-Modelle damit zu trainieren, fasst Reuters zusammen. Ich hatte hier schon mehrfach vermutet, dass es immer häufiger Forderungen nach der Lizenzierung von Inhalten zum Training von LLMS geben wird. ...

28. Januar 2025 · 1 Minute · 117 Wörter

Deutlich weniger Hardware-Ressourcen

Kim Rixecker schreibt in »Deepseek überholt OpenAI und schickt Chipaktien auf Talfahrt: Das steckt dahinter« für t3n.de Statt also alle 671 Milliarden Parameter zu verwenden, kommen bei der Ausführung nur 37 Milliarden zum Einsatz. Das benötigt entsprechend deutlich weniger Hardware-Ressourcen und liefert dennoch überzeugende Ergebnisse. Das Ganze erinnert stark an das Wettrüsten um die erste bemannte Mondlandung in den 1960ern. Damals standen sich die USA und die Sowjetunion gegenüber, heute sind es die USA und China. ...

27. Januar 2025 · 1 Minute · 190 Wörter

Bestmögliche Lösung

Modelle werden nicht automatisch besser, je mehr Daten sie erhalten – das habe ich hier bereits erwähnt. Interessant ist jedoch der Ansatz, der gefunden werden muss, um Modelle dennoch zu verbessern. Der folgende Ansatz ist einer der ersten von den ich lese. Dr. Wolfgang Stieler schreibt in »OpenAI o3: Revolutionäres KI-Modell mit hohem Rechenaufwand und Preisschild« für heise.de Die KI-Branche regierte darauf mit einer Strategie, die unter dem Schlagwort “test-time compute” bekannt geworden ist. Diese Strategie greift eine zentrale Schwäche großer Sprachmodelle auf: Sie berechnen immer das nächste, zum Input passende Token, dann hängen sie den Output vorne an den Prompt und wiederholen die Prozedur. Das funktioniert zwar für Texte, aber nicht für komplexe Probleme, bei denen die KI schrittweise mögliche Lösungswege ausprobiert und wenn sie in eine Sackgasse gerät, wieder neu ansetzen müsste. ...

8. Januar 2025 · 2 Minuten · 220 Wörter

Ohne Rechteverletzung

Michael Linden schreibt in »ChatGPT kann ohne Rechteverletzung nicht trainiert werden« für golem.de OpenAI behauptet laut dem Bericht, dass praktisch jede Form des menschlichen Ausdrucks, von Blogbeiträgen bis hin zu Softwarecode, unter den Schutz des Urheberrechts fällt. Folglich, so argumentiert das Unternehmen, wäre die Entwicklung von KI-Systemen, die den Bedürfnissen der heutigen Gesellschaft gerecht werden, nicht möglich, wenn sie auf gemeinfreie Werke beschränkt wären, die vor über einem Jahrhundert geschaffen wurden. ...

11. Juli 2024 · 1 Minute · 153 Wörter