Achim Sawall schreibt in »Gita Gopinath: Harvard-Ökonomin warnt vor hartem KI-Crash« für golem.de
Gopinath sieht verschiedene Faktoren, die einen solchen Crash auslösen könnten – etwa einen zweiten Fall Deepseek, also eine Firma, die KI zu einem Bruchteil der Kosten produziert wie die US-Konkurrenten. “Ein weiterer Crash-Auslöser könnte auch sein, dass die Inflation stärker als erwartet steigt, die US-Notenbank Fed die Zinsen erhöht und für Unternehmen sowie Staaten die Finanzierung der enormen Schulden verteuert” , so Gopinath. “Oder dass die Rendite langfristiger US-Staatsanleihen steigt, weil die Menschen für die Zukunft höhere Inflationsraten erwarten. Das könnte schlimm werden.”
Gopinath beschreibt im Kern, wie fragil das gesamte System ist. Rückblickend auf das Jahr 2025 soll künftig fast alles von KI getragen werden. Produkte und Geräte ebenso wie Gesetze, ihre Durchsetzung und die Existenz ganzer Unternehmen. Der Hype verstellt dabei den Blick darauf, dass es sich um eine vergleichsweise junge Technik handelt, die noch immer erforscht wird.
Der Schmetterlingseffekt bleibt dabei ein realistisches Szenario. Noch lässt sich nicht ausschließen, dass im Grundprinzip großer Sprachmodelle etwas übersehen wurde. Möglich ist eine Lücke, die sich erst mit neuen Erkenntnissen zeigt. Ebenso offen ist, ob sich diese Architektur dauerhaft wirtschaftlich betreiben lässt. Auch ist nicht sicher, ob KI-Systeme jemals so verlässlich antworten, dass menschliche Kontrolle entbehrlich wird. Hinzu kommen Faktoren außerhalb der technologischen Entwicklung. Gopinath weist darauf hin, dass eine stark steigende Inflation zu Zinserhöhungen führen könnte, was die wirtschaftliche Tragfähigkeit weiter infrage stellt. Vielleicht ist diese Skepsis am Ende unnötig, weil früher oder später die Produkte von Cyberdyne Systems doch alles übernehmen.
Sicher ist nur, dass es darauf bislang keine belastbaren Antworten gibt.
Möchtest du mir antworten?
Schick mir eine Nachricht per E-Mail und lass uns ein Dialog beginnen. Du kannst mir auch per RSS oder Mastodon folgen.