Open Source

Trumps KI-Projekt: Kann die Macht einer „Super­intel­ligenz“ zur Entmachtung der Menschheit führen?

Zur Logik und Problematik des hemmungslosen  Fortschrittsdenkens in Washington, das mit dem neuen US-Präsidenten einen mächtigen Frontmann hat.

US-Präsident Donald Trump (l.) spricht, während Masayoshi Son von der SoftBank Group, Larry Ellison von Oracle Corporation und Sam Altman von OpenAI im Weißen Haus zuhören.
US-Präsident Donald Trump (l.) spricht, während Masayoshi Son von der SoftBank Group, Larry Ellison von Oracle Corporation und Sam Altman von OpenAI im Weißen Haus zuhören.Julia Demaree Nikhinson/AP

Dies ist ein Open-Source-Beitrag. Der Berliner Verlag gibt allen Interessierten die Möglichkeit, Texte mit inhaltlicher Relevanz und professionellen Qualitätsstandards anzubieten.


Die einen feiern jetzt das von US-Präsident Donald Trump nach seiner Inaugu­ra­tion angekündigte KI-Projekt Stargate im Mindestumfang von 500 Milliarden Dollar, zu­mal es neben mehr Fortschritt zugleich über 100.000 neue Arbeits­plät­ze bringen soll. Andere aber erschrecken davor – aus verschiedenen Gründen.

Bemerkenswert ist jedenfalls, dass es gerade unter Experten eine ganze Phalanx ernsthafter Warner vor rigorosen Weiterentwicklungen Künstlicher Intelligenz gibt. Konnten Befür­wor­ter des KI-Ausbaus ihre generelle Zuversicht bislang gerade auch auf ethische Regle­ments zur KI gründen, die deren problematische Ausuferungen einzäunen sollten, so mussten sie nun zur Kenntnis nehmen, dass die Ankündigung des gigantischen KI-Projekts Trumps einherging mit der Stor­nierung eines Dekrets seines Vorgängers Joe Biden zur Regulierung von Künstli­cher Intelligenz.

Dass die USA, in denen ja die bedeutendsten KI-Entwickler tätig sind, somit keine staatlichen Richtlinien zur Fortschreibug von KI-Modellen mehr haben, mag rein ökonomisch und technisch gese­hen vorteilhaft sein, erhöht aber bestehende Risiken einer exponentiellen Weiterentwicklung von KI erheblich.

Gewiss, es gibt Warner vor den Warnern, vor Verteufelungen und doch wohl wenig begründeten Ängsten. Aber die Sache ist zu ernst, als dass man kritische Einwände eines Teils der KI-Experten leicht nehmen und womöglich psychologisch klein reden könnte. Der legitime Hinweis auf den Umstand, dass massive Investitionen in KI-Rechenzentren schon deswegen unumgänglich seien, weil es auf diesem Gebiet um wichtigen Vor­sprung gegenüber konkurrierenden Ländern gehe, leuchtet ein Stück weit ein. Doch wie viel zählt er im Vergleich zu dem Problem, dass es ernsthaften, sachkun­digen Bedenkenträgern zufolge um nicht weniger als ums Überleben der Menschheit geht?

Ist die massive Investition in KI-Rechenzentren wirklich angemessen?
Ist die massive Investition in KI-Rechenzentren wirklich angemessen?Mischa Keijser/imago

Seit Jahrzehnten gibt es warnende Stimmen

Seit einigen Jahrzehnten bereits gibt es warnende Stimmen in dieser Richtung. Man denke etwa an das Buch „Die Antiquiertheit des Menschen“ des Philosophen Gün­ther Anders, der schon 1956 weitsichtig Erkenntnisse formuliert und prognostiziert hat, die heute nur bestätigt werden können. Das gilt beispielsweise auch für das Buch seines Kollegen Gernot Böh­me „Invasive Technisierung. Technikphilosophie und Technik­kritik“ von 2008, oder an das 2019 erschienene Buch von Armin Grun­wald „Der unterlegene Mensch. Die Zukunft der Menschheit im An­gesicht von Algo­rithmen, künstlicher Intelligenz und Robotern“.

In letzter Zeit haben sich einige Fernsehsendungen aufgrund hervorragender Recherchen intensiv und eindrucksvoll mit den Risiken einer künftigen KI befasst – zu sehen waren sie insbesondere auf dem niveauvollen Sender arte. Freilich hat schon Günther Anders seinerzeit dar­ge­legt, wie uner­wünscht Kritik an der technologischen Entwicklung in unserer fort­schrittsbe­geister­ten Welt grundsätzlich ist, ja wie sie zu Ausgrenzungen führen kann und muss. Gleichwohl verstummt weitgehend seriöse Kritik an KI in unseren Tagen keineswegs.

Die globalen Gefahren der KI hinsichtlich ihrer selbstlernenden Entwicklung hin zu einer sogenannten Superintelligenz bereiten Experten am meisten Sorgen. So warn­ten auf dem KI-Sicherheitsgipfel 2024 in Seoul 25 welt­weit führende KI-For­scher, KI mache rasche Fortschritte in kritischen Be­reichen und könne schon bald beispiel­lose Kon­trollprobleme auf­werfen. Mahnend äußerten sich noch im selben Jahr auch der deutsche Top-Manager Jan Leike sowie Ilya Suts­kever, ein Mitbe­gründer von OpenAI, die enorme Macht einer „Super­intel­ligenz“ könnte zur Entmachtung der Menschheit oder sogar zu ihrem Aussterben führen.

Mehrere Experten sprechen im Rahmen des Weltwirtschaftsforums in Davos über Allgemeine KI.
Mehrere Experten sprechen im Rahmen des Weltwirtschaftsforums in Davos über Allgemeine KI.Mattias Nutt/imago

Gar nicht auszudenken, wenn einst eine autonom gewordene KI im militä­rischen Einsatz wäre! Prinzipiell kann sich KI als nicht auf spezielle Probleme ausgerichtete, sondern „Allgemeine KI“ schon relativ bald mensch­licher Kon­trolle entziehen, näm­lich als Superintelligenz zu einer im wahrsten Sinn des Wortes unberechen­baren Macht entwickeln.

Was gekonnt wird, wird gemacht

Der deutsche Experte Karl von Wendt hat über KI promoviert; er warnte in der Zeitschrift Technikfolgenabschätzung in Theorie und Praxis: „Uns blei­ben mit Glück noch höchstens zwei Jahrzehnte, wenn wir Pech haben nur noch weni­ge Jahre. KI könnte dafür sorgen, dass sie nicht mehr abzu­schalten ist!“ Dem­nach ist der optimale Weltzustand, den KI auf Basis ihres Ziels anstrebt, „höchst­wahr­­schein­lich nicht mit unseren Wünschen und oft auch nicht mit unserem Überleben verein­bar“. Eine Gefahr gehe tatsächlich primär von Allge­mei­nen KIs aus, die nahezu be­liebige Probleme lösen und langfristige Pläne schmie­den kön­nen: „Solche ‚Universal­genies‘ brauchen wir eigentlich gar nicht.“

Ab einem be­stimmten Punkt ihrer Leis­tungsfähigkeit dürfte es nach von Wendt unmög­lich sein, bei einer All­ge­meinen KI vorauszusagen, ob und wann sie unkontrollierbar werde. Daher wäre es ihm zufolge am klügsten, vorläufig auf die Weiterentwicklung einer Allge­mei­nen KI zu ver­zich­ten und Energie und Investitionen stattdessen in spezialisier­te KIs zu ste­cken. Doch kennt man die Macher fort­schrittlichster Technologien als ver­zichts­bereite und vorsichtig agie­rende Leute – oder nicht viel eher als Zeit­ge­nos­sen, die schon aus wirtschaft­lichen Gründen und mit Blick auf die Kon­kur­renz nach dem Motto han­deln: „Was gekonnt wird, wird ge­macht“? Ganz danach sieht es jetzt in den USA aus.

Elon Musk ist auch für seine Kritik an der KI-Forschung bekannt.
Elon Musk ist auch für seine Kritik an der KI-Forschung bekannt.Patrick Pleul/dpa

Musks ambivalente Haltung gegenüber der KI-Forschung

In den letzten zehn Jahren zählte zu den Warnern auch gerade Elon Musk, der jetzt zum engsten Zirkel des US-Präsidenten zählt. Ihm war längst klar, dass KI äußerst gefähr­lich werden könne. Zusammen mit anderen namhaften Per­sönlichkeiten veröffentlichte er 2023 einen Offenen Brief mit der Forderung, alle Technologie-La­bore sollten die Entwicklung von KI­-Syste­men so­fort unterbrechen: So­lan­ge nicht einmal die Hersteller die Maschi­nen wirklich verstünden, seien die Risi­ken zu groß, dass die Systeme im Zuge erworbener Selbstständigkeit eine inhu­mane Ausrichtung anneh­men könnten. Aktuell hört man ihn vor den Kosten des Trumpschen Projekts warnen.

Seine ambivalente Haltung gegenüber der KI-Ent­wicklung könnte – das geht aus Äußerungen des Erlanger theologischen Ethikers Peter Dabrock hervor – mit einer Affinität zur Philosophie des „Longtermismus“ zu tun haben. In diesem von dem schwedischen Transhumanisten Nick Bostrom ge­prägten Begriff steckt die Bedeutung von „langer Zeit“.

Es geht hier um eine ethi­sche Perspektive, die vorzügliche Verbesserungen vor allem für die ferne Zukunft als moralische Priorität ansieht. Sie beschäftigt sich gedanklich über die näch­sten Generationen hinaus auch mit der langfristigen Zukunft der Mensch­heit über die kommenden Jahrtausende oder gar Millionen von Jahren hinweg. Das hat einen Anschein von Weisheit, trägt aber die eminente Gefahr in sich, das unmit­telbare Heute und Morgen fahrlässig zu vernachlässigen – bedenklich schon deswegen, weil nicht einmal sicher ist, ob es eine ferne Zukunft der Menschheit überhaupt geben wird.

Peter Dabrock – ehemaliger Vorsitzender des deutschen Ethikrates – glaubt, dass sich Elon Musks ambivalentes Verhältnis gegenüber der KI-Entwicklung auf dessen Affinität zum Longtermism zurückführen lässt.
Peter Dabrock – ehemaliger Vorsitzender des deutschen Ethikrates – glaubt, dass sich Elon Musks ambivalentes Verhältnis gegenüber der KI-Entwicklung auf dessen Affinität zum Longtermism zurückführen lässt.Jürgen Heinrich/imago

Die heutige Generation wird einer ideologischen Fortschrittsidee geopfert

Von einer solchen longtermistischen Sichtweise her erklärt sich immerhin zum ersten ein scheinbar weitsichtiges Setzen auf den Fortschritt, wie es in dem neuen KI-Projekt zum Ausdruck kommt. Zum zweiten leuchtet von daher Musks Streben nach dem Planeten Mars ein. Und zum dritten gewinnt so auch Trumps gleichzei­tiger Ausstieg aus dem Pariser Klimaabkommen eine gewisse Evidenz: Gegebenen­falls wird die heutige Generation und das Wohlergehen der morgigen einem doch recht abstrakten Über­morgen und einer ideologischen Fortschrittsidee geopfert.

Es geht der neuen „Re­gierungsoligarchie“ in den USA insofern wohl kei­neswegs nur um nationalisti­sche Anliegen: Neben dem „goldenen Zeitalter“ für die nächsten Jahre ist zugleich das technische herstellbare Paradies einer fernen Zu­kunft der Menschheit anvisiert. Das mag absolut positiv klingen, aber es ist auch zugleich hochriskant und – das sollte namentlich US-Vizepräsident JD Vance als katholischer Christ bedenken – himmelweit entfernt vom Glauben an den Absoluten, dessen Him­melreich Jesus von Nazareth angesagt hat.

Werner Thiede ist Pfarrer im Ruhestand der Evang.-Luth. Kirche in Bayern und außerplanmäßiger Professor für Systematische Theologie an der Universität Erlangen-Nürnberg.

Das ist ein Beitrag, der im Rahmen unserer Open-Source-Initiative eingereicht wurde. Mit Open Source gibt der Berliner Verlag freien Autorinnen und Autoren sowie jedem Interessierten die Möglichkeit, Texte mit inhaltlicher Relevanz und professionellen Qualitätsstandards anzubieten. Ausgewählte Beiträge werden veröffentlicht und honoriert.