Dies ist ein Open-Source-Beitrag. Der Berliner Verlag gibt allen Interessierten die Möglichkeit, Texte mit inhaltlicher Relevanz und professionellen Qualitätsstandards anzubieten.
Die einen feiern jetzt das von US-Präsident Donald Trump nach seiner Inauguration angekündigte KI-Projekt Stargate im Mindestumfang von 500 Milliarden Dollar, zumal es neben mehr Fortschritt zugleich über 100.000 neue Arbeitsplätze bringen soll. Andere aber erschrecken davor – aus verschiedenen Gründen.
Bemerkenswert ist jedenfalls, dass es gerade unter Experten eine ganze Phalanx ernsthafter Warner vor rigorosen Weiterentwicklungen Künstlicher Intelligenz gibt. Konnten Befürworter des KI-Ausbaus ihre generelle Zuversicht bislang gerade auch auf ethische Reglements zur KI gründen, die deren problematische Ausuferungen einzäunen sollten, so mussten sie nun zur Kenntnis nehmen, dass die Ankündigung des gigantischen KI-Projekts Trumps einherging mit der Stornierung eines Dekrets seines Vorgängers Joe Biden zur Regulierung von Künstlicher Intelligenz.
Dass die USA, in denen ja die bedeutendsten KI-Entwickler tätig sind, somit keine staatlichen Richtlinien zur Fortschreibug von KI-Modellen mehr haben, mag rein ökonomisch und technisch gesehen vorteilhaft sein, erhöht aber bestehende Risiken einer exponentiellen Weiterentwicklung von KI erheblich.
Gewiss, es gibt Warner vor den Warnern, vor Verteufelungen und doch wohl wenig begründeten Ängsten. Aber die Sache ist zu ernst, als dass man kritische Einwände eines Teils der KI-Experten leicht nehmen und womöglich psychologisch klein reden könnte. Der legitime Hinweis auf den Umstand, dass massive Investitionen in KI-Rechenzentren schon deswegen unumgänglich seien, weil es auf diesem Gebiet um wichtigen Vorsprung gegenüber konkurrierenden Ländern gehe, leuchtet ein Stück weit ein. Doch wie viel zählt er im Vergleich zu dem Problem, dass es ernsthaften, sachkundigen Bedenkenträgern zufolge um nicht weniger als ums Überleben der Menschheit geht?

Seit Jahrzehnten gibt es warnende Stimmen
Seit einigen Jahrzehnten bereits gibt es warnende Stimmen in dieser Richtung. Man denke etwa an das Buch „Die Antiquiertheit des Menschen“ des Philosophen Günther Anders, der schon 1956 weitsichtig Erkenntnisse formuliert und prognostiziert hat, die heute nur bestätigt werden können. Das gilt beispielsweise auch für das Buch seines Kollegen Gernot Böhme „Invasive Technisierung. Technikphilosophie und Technikkritik“ von 2008, oder an das 2019 erschienene Buch von Armin Grunwald „Der unterlegene Mensch. Die Zukunft der Menschheit im Angesicht von Algorithmen, künstlicher Intelligenz und Robotern“.
In letzter Zeit haben sich einige Fernsehsendungen aufgrund hervorragender Recherchen intensiv und eindrucksvoll mit den Risiken einer künftigen KI befasst – zu sehen waren sie insbesondere auf dem niveauvollen Sender arte. Freilich hat schon Günther Anders seinerzeit dargelegt, wie unerwünscht Kritik an der technologischen Entwicklung in unserer fortschrittsbegeisterten Welt grundsätzlich ist, ja wie sie zu Ausgrenzungen führen kann und muss. Gleichwohl verstummt weitgehend seriöse Kritik an KI in unseren Tagen keineswegs.
Die globalen Gefahren der KI hinsichtlich ihrer selbstlernenden Entwicklung hin zu einer sogenannten Superintelligenz bereiten Experten am meisten Sorgen. So warnten auf dem KI-Sicherheitsgipfel 2024 in Seoul 25 weltweit führende KI-Forscher, KI mache rasche Fortschritte in kritischen Bereichen und könne schon bald beispiellose Kontrollprobleme aufwerfen. Mahnend äußerten sich noch im selben Jahr auch der deutsche Top-Manager Jan Leike sowie Ilya Sutskever, ein Mitbegründer von OpenAI, die enorme Macht einer „Superintelligenz“ könnte zur Entmachtung der Menschheit oder sogar zu ihrem Aussterben führen.

Gar nicht auszudenken, wenn einst eine autonom gewordene KI im militärischen Einsatz wäre! Prinzipiell kann sich KI als nicht auf spezielle Probleme ausgerichtete, sondern „Allgemeine KI“ schon relativ bald menschlicher Kontrolle entziehen, nämlich als Superintelligenz zu einer im wahrsten Sinn des Wortes unberechenbaren Macht entwickeln.
Was gekonnt wird, wird gemacht
Der deutsche Experte Karl von Wendt hat über KI promoviert; er warnte in der Zeitschrift Technikfolgenabschätzung in Theorie und Praxis: „Uns bleiben mit Glück noch höchstens zwei Jahrzehnte, wenn wir Pech haben nur noch wenige Jahre. KI könnte dafür sorgen, dass sie nicht mehr abzuschalten ist!“ Demnach ist der optimale Weltzustand, den KI auf Basis ihres Ziels anstrebt, „höchstwahrscheinlich nicht mit unseren Wünschen und oft auch nicht mit unserem Überleben vereinbar“. Eine Gefahr gehe tatsächlich primär von Allgemeinen KIs aus, die nahezu beliebige Probleme lösen und langfristige Pläne schmieden können: „Solche ‚Universalgenies‘ brauchen wir eigentlich gar nicht.“
Ab einem bestimmten Punkt ihrer Leistungsfähigkeit dürfte es nach von Wendt unmöglich sein, bei einer Allgemeinen KI vorauszusagen, ob und wann sie unkontrollierbar werde. Daher wäre es ihm zufolge am klügsten, vorläufig auf die Weiterentwicklung einer Allgemeinen KI zu verzichten und Energie und Investitionen stattdessen in spezialisierte KIs zu stecken. Doch kennt man die Macher fortschrittlichster Technologien als verzichtsbereite und vorsichtig agierende Leute – oder nicht viel eher als Zeitgenossen, die schon aus wirtschaftlichen Gründen und mit Blick auf die Konkurrenz nach dem Motto handeln: „Was gekonnt wird, wird gemacht“? Ganz danach sieht es jetzt in den USA aus.

Musks ambivalente Haltung gegenüber der KI-Forschung
In den letzten zehn Jahren zählte zu den Warnern auch gerade Elon Musk, der jetzt zum engsten Zirkel des US-Präsidenten zählt. Ihm war längst klar, dass KI äußerst gefährlich werden könne. Zusammen mit anderen namhaften Persönlichkeiten veröffentlichte er 2023 einen Offenen Brief mit der Forderung, alle Technologie-Labore sollten die Entwicklung von KI-Systemen sofort unterbrechen: Solange nicht einmal die Hersteller die Maschinen wirklich verstünden, seien die Risiken zu groß, dass die Systeme im Zuge erworbener Selbstständigkeit eine inhumane Ausrichtung annehmen könnten. Aktuell hört man ihn vor den Kosten des Trumpschen Projekts warnen.
Seine ambivalente Haltung gegenüber der KI-Entwicklung könnte – das geht aus Äußerungen des Erlanger theologischen Ethikers Peter Dabrock hervor – mit einer Affinität zur Philosophie des „Longtermismus“ zu tun haben. In diesem von dem schwedischen Transhumanisten Nick Bostrom geprägten Begriff steckt die Bedeutung von „langer Zeit“.
Es geht hier um eine ethische Perspektive, die vorzügliche Verbesserungen vor allem für die ferne Zukunft als moralische Priorität ansieht. Sie beschäftigt sich gedanklich über die nächsten Generationen hinaus auch mit der langfristigen Zukunft der Menschheit über die kommenden Jahrtausende oder gar Millionen von Jahren hinweg. Das hat einen Anschein von Weisheit, trägt aber die eminente Gefahr in sich, das unmittelbare Heute und Morgen fahrlässig zu vernachlässigen – bedenklich schon deswegen, weil nicht einmal sicher ist, ob es eine ferne Zukunft der Menschheit überhaupt geben wird.

Die heutige Generation wird einer ideologischen Fortschrittsidee geopfert
Von einer solchen longtermistischen Sichtweise her erklärt sich immerhin zum ersten ein scheinbar weitsichtiges Setzen auf den Fortschritt, wie es in dem neuen KI-Projekt zum Ausdruck kommt. Zum zweiten leuchtet von daher Musks Streben nach dem Planeten Mars ein. Und zum dritten gewinnt so auch Trumps gleichzeitiger Ausstieg aus dem Pariser Klimaabkommen eine gewisse Evidenz: Gegebenenfalls wird die heutige Generation und das Wohlergehen der morgigen einem doch recht abstrakten Übermorgen und einer ideologischen Fortschrittsidee geopfert.
Es geht der neuen „Regierungsoligarchie“ in den USA insofern wohl keineswegs nur um nationalistische Anliegen: Neben dem „goldenen Zeitalter“ für die nächsten Jahre ist zugleich das technische herstellbare Paradies einer fernen Zukunft der Menschheit anvisiert. Das mag absolut positiv klingen, aber es ist auch zugleich hochriskant und – das sollte namentlich US-Vizepräsident JD Vance als katholischer Christ bedenken – himmelweit entfernt vom Glauben an den Absoluten, dessen Himmelreich Jesus von Nazareth angesagt hat.
Werner Thiede ist Pfarrer im Ruhestand der Evang.-Luth. Kirche in Bayern und außerplanmäßiger Professor für Systematische Theologie an der Universität Erlangen-Nürnberg.



