EN

Künstliche Intelligenz
Der Diskurs um existenzielle Risiken von Künstlicher Intelligenz

KI
© picture alliance / imageBROKER | Infinity News Collective

Zwischen Panik und Beschleunigung – Zwischen Geld und Narrativen

Drei Jahre nach der Einführung von ChatGPT hat sich die Diskussion um künstliche Intelligenz (KI) von einem akademischen Randthema zu einer zentralen gesellschaftlichen und politischen Debatte entwickelt. Stimmen wie die von Geoffrey Hinton und Yoshua Bengio haben vor den potenziell katastrophalen Folgen unregulierter KI-Entwicklung gewarnt. Schreckensszenarien ehemaliger Mitarbeiter von OpenAI prophezeiten ein Ende der Menschheit durch eine Superintelligenz schon 2030. Dem entgegen steht eine Utopie, in der die Menschheit alles hat, was sie sich wünscht und das Weltall erkundet, um auf fremden Planeten Datenzentren zu bauen. Fragen nach Monopolen von Tech-Unternehmen und politischer Ordnung werden nicht gestellt. Doch wann wir eine Künstliche Generelle Intelligenz (Artificial General Intelligence, AGI) erreichen und wie diese funktionieren wird, ist bis jetzt rein spekulativ. Woher kommt also die Panik vor der unkontrollierten KI-Übernahme?

Die Entstehungsphase - Follow the money

Die Diskussion um existenzielle Risiken ist keineswegs organisch entstanden, sondern wurde maßgeblich von einem gut finanzierten Netzwerk geprägt, das eng mit der Effective Altruism (EA) Bewegung verbunden ist. Milliardäre wie Dustin Moskovitz, Jaan Tallinn und der inzwischen verurteilte Sam Bankman-Fried haben Hunderte Millionen Dollar in Organisationen investiert, die Forschung zu existenziellen Risiken durch KI betreiben. Diese Finanzierung hat nicht nur die Forschungsagenda, sondern auch den öffentlichen Diskurs und politische Entscheidungen beeinflusst. Bestes Beispiel ist vielleicht die kalifornische Bill SB 1047. Die ideologischen Grundlagen der EA und Existenziellen Risiken Bewegung spiegeln jedoch keineswegs einen gesellschaftlichen Konsens wider. Transhumanismus, Totaler Utilitarismus und Longtermism führen dazu, dass gegenwärtige Bedürfnisse und Wohlbefinden zugunsten eines hypothetischen zukünftigen Nutzens zurückgestellt werden.

Die öffentliche Panik vor existenziellen KI-Risiken stimmt also oft nicht mit der Realität der aktuellen technologischen Entwicklungen überein. Stattdessen lenkt sie von dringenden, gegenwärtigen Problemen wie algorithmischer Verzerrung, Datenschutzrisiken und der gesellschaftlichen Mitbestimmung zur Nutzung von KI ab. Das bisherige Fernbleiben der dystopischen Superintelligenz hat in der öffentlichen Debatte zu einem Backlash geführt. Statt eines AI Safety Summits, wie er 2023 in London stattfand, lud Paris zu Beginn des Jahres 2025 zum AI Action Summit ein. Ein Shift von einer risikobasierten zu einer handlungsorientierten Betrachtung.

Das Wettrennen gegen die autokratische Superintelligenz

In den USA hat die neue Regierung klar signalisiert, dass KI-Sicherheit in die Vergangenheit gehört und der Systemkonflikt mit China Vorrang hat. Öl ins Feuer schüttete der im Januar veröffentlichte ChatBot R1 von DeepSeek, welcher ähnliche Fähigkeiten hatte wie große amerikanische Modelle und zudem Open Source war. Er wurde für wesentlich weniger Geld und mit schlechteren Chips trainiert als die Modelle des Silicon Valleys. Dies führte nicht nur zu einem Einbruch der Aktien wichtiger Unternehmen wie Nvidia, sondern auch zu einem Sputnik-ähnlichen Panik-Moment. Auf einmal argumentierten die großen KI-Unternehmen gegen Regulierung und zum Beispiel für Fair-Use von urheberrechtlich geschütztem Material im Namen des Systemkonflikts. Nichts ist wichtiger, als eine demokratische AGI zu schaffen, bevor China aufholt und eine autokratische Superintelligenz die Herrschaft übernimmt.

Diese „Zoomer“- Stimmung ist auch in die EU übergeschwappt. Nur ein Jahr nach der Verabschiedung des EU AI Act rudern Gesetzgeber und Institutionen bereits zurück. Die Technologiechefin der Europäischen Kommission, Henna Virkunnen, hat beispielsweise versprochen, dass die Kommission prüft, welche administrativen Belastungen und Berichtspflichten sie reduzieren könnte. Die Kommission plant zudem, mit Technologieunternehmen zusammenzuarbeiten, um zu ermitteln, wo regulatorische Unsicherheit die Einführung und Entwicklung von KI behindert, um "eine Reihe digitaler Regelwerke zurückzufahren".

Von der Panik-Welle zur demokratischen Vision

Es zeigt sich: Das Reiten auf der Welle öffentlicher Panik führt nicht zwangsläufig zu nachhaltigen und effektiven Regulierungen. Wir müssen aufpassen, dass die Debatte, die aktuell noch vor allem im anglo-amerikanischen Raum dominiert, nicht unbeachtet in den europäischen Raum eindringt. Es muss daher klarer erkennbar sein, wo Forschungsgelder zu existenziellen Risiken herkommen, wer Politiker und Politikerinnen berät und ob die Narrative, die Panik verkaufen, auf einer spekulativen Zukunft beruhen. Es bedarf einer demokratischen Vision, die nicht erträumte Cyborgs in den Mittelpunkt stellt, sondern den Menschen im Hier und Jetzt und Morgen.

Eine Aufschlüsselung der Debatte, Ideologien und Geldflüsse finden Sie in dem gerade erschienenen Paper „Existential Risk from AI -  Why Wait When You Can Panic Now and Avoid the Rush?“ von Céline Nauer und Zoë van Doren.