ChatGPT & Co.

Wenn die Maschine den Menschen ersetzt: Wie gefährlich ist Künstliche Intelligenz?

Seit einigen Monaten wird ununterbrochen über Künstliche Intelligenz diskutiert. Wir haben mit einer Expertin über die Risiken gesprochen.

Eine Ärztin wertet KI-unterstützte Tumor-Diagnostik aus. Doch die Künstliche Intelligenz ist dem Menschen nicht nur nützlich.
Eine Ärztin wertet KI-unterstützte Tumor-Diagnostik aus. Doch die Künstliche Intelligenz ist dem Menschen nicht nur nützlich.Imago

Seit ein paar Monaten ist die Künstliche Intelligenz (KI) in aller Munde. Einige sehen in der Technologie eine Zeitwende, die die Arbeitswelt zum Positiven verändern könnte. Andere fürchten apokalyptische Szenarien, die entstehen könnten, wenn die KI außer Kontrolle geriete.

KI-Systeme könnten auf verschiedenen Ebenen die Arbeit erleichtern, wie bei der schnellen Herstellung von Texten zum Beispiel. Aber die Sorge, dass sie in naher Zukunft den Mensch als Arbeitskraft direkt ersetzen könnten, steigt.

Laut einem Bericht der US-Investmentbank Goldman Sachs könnten 300 Millionen Angestellte von der KI ersetzt werden. Die am stärksten gefährdeten Arbeitsplätze sind demnach Büro- und Verwaltungspositionen, gefolgt von Rechtsberufen und Architektur- und Ingenieurberufen. Wir haben eine Expertin gefragt, wie realistisch die Hoffnungen – und die Ängste sind.

Was versteht man unter Künstlicher Intelligenz?

„Auf diese Frage gibt es keine leichte Antwort“, sagt die Datenschutzexpertin und Autorin Ivana Bartoletti, die für den Datenschutz bei Wipro zuständig ist, einem multinationalen Unternehmen für Dienstleistungen aus den Bereichen des IT-Consultings und der Systemintegration mit Hauptsitz in Indien. Seit längerem setzt sich Bartoletti für den Schutz der Privatsphäre und die Regulierung der Technologiebranche ein. „Künstliche Intelligenz ist ein Teilgebiet der Informatik, das sich mit der Entwicklung von Hardware- und Softwaresystemen beschäftigt, die mit menschenähnlichen Fähigkeiten ausgestattet sind“, fasst sie zusammen.

Diese „menschenähnlichen Fähigkeiten“ seien das Lernen, die Argumentation, die Planung und die Fähigkeit zur Interaktion mit der Umwelt. Die große Neuerung dieser Maschinen ist, dass sie eigenständig Entscheidungen treffen können, die bis jetzt nur der Mensch getroffen hatte. Aber: „KI ist keine Neuigkeit“, sagt Bartoletti. „Man hat schon darüber geredet, als Alan Turing noch am Leben war“, also in den 1950er-Jahren. Was sich in den vergangenen Jahren verändert hat, ist die immense Verfügbarkeit an Daten und Rechenleistung.

Aktuell eingesetzte KI sammeln online tonnenweise Informationen von Datenbanken, die es ermöglichen, die Software zu trainieren. Deswegen ähneln zum Beispiel die Antworten von ChatGPT, einem umstrittenen System der Firma OpenAI, so sehr einer menschlichen, weil es versucht, diese nachzuahmen. „Es sind keine kreativen Maschinen“, betont Bartoletti.

Bei ChatGPT handelt es sich um einen Chatbot der sogenannten Generativen KI, die durch einen Input selbstständig Inhalte erstellen können, wie Texte oder Fotos. Die Software wurde vom Forschungs- und Entwicklungsunternehmen OpenAI entwickelt und von Microsoft finanziert.

Setzt sich für Datenschutz und digitale Freiheit ein: Ivana Bartoletti
Setzt sich für Datenschutz und digitale Freiheit ein: Ivana BartolettiIvana Bartoletti

Die Gefahren der KI

Mit dieser Technologie seien große Gefahren verbunden, meint Bartoletti. „Wenn man ChatGPT etwas fragt, was er nicht weiß, dann erfindet er eine Antwort“, erklärt die Autorin des Buches „An Artificial Revolution: On power, Politics and AI“. Die KI haben zudem Vorurteile und reproduzieren Klischees. Das konnten zum Beispiel die Nutzerinnen der App Lensa merken, die auf Basis von realen Fotos Avatar-Bilder herstellt.

Viele Nutzerinnen gaben an, dass die App sie nackt oder anders provokant darstellt; männliche Nutzer hingegen werden stets in einem virilen Aussehen abgebildet. „Das Vorurteil ist unvermeidlich“, sagt Bartoletti. „Diese Systeme sind auf Daten trainiert, die aus der ganzen Welt kommen. Es ist die Welt, die Vorurteile hat.“

Aktuell schaue man auf diese Technologie mit einer Kombination aus Aufregung und Angst, so die Expertin. „Man ist aufgeregt, weil man an die ganzen Möglichleiten denkt, die ein solches Instrument mit sich bringt. Ich denke zum Beispiel an das personalisierte Gesundheitswesen. Die Angst ist aber auch da, und das ist richtig so. Angst vor dem, wozu diese Maschinen im Stande sind.“ Sie könnten auch manipulativ wirken.

Bartoletti zufolge arbeiteten Wissenschaftler in den vergangenen Jahren zwar verstärkt daran, die Risiken zu minimieren. „Aber eins ist jetzt klar: Wir brauchen Regeln“, so die Datenschutzexpertin.

Wieso dürfen Italiener ChatGPT derzeit nicht nutzen?

Seit März ist die KI-Software ChatGPT in Italien gesperrt. Die italienische Datenschutzbehörde hatte den Betreiber OpenAI um Zusicherungen in Bezug auf den Datenschutz der Nutzer gebeten.

Der Anbieter hatte danach die Dienstleistung im Belpaese zeitlich blockiert, was sich nun wieder ändern könnte. „Wir sind bereit, eine Rückkehr von ChatGPT am 30. April zu erlauben, wenn OpenAI bereit ist, angemessene Maßnahmen zu ergreifen“, sagte Behördenchef Pasquale Stanzione in einem Interview mit der Zeitung Corriere della Sera. Laut Stanziones Einschätzung wird das von Microsoft unterstützte Unternehmen in der Lage sein, die Anforderungen der Datenschutzbehörde zu erfüllen.

„Die Datenschutzbehörde hat einen wichtigen Punkt angesprochen“, meint Bartoletti. „Datenschutz ist ein grundlegenderer Bestandteil der Innovation, es muss eine generative KI hergestellt werden, die respektvoll mit den Daten und der Privatsphäre der Nutzer umgeht. Das Wichtigste ist, eine gewisse Transparenz beizubehalten.“

Es fehlt eine Datenschutzerklärung: Wo gelangen die Daten hin?

„Das große Problem ist, dass ChatGPT keine Datenschutzerklärung bereitstellt“, so Bartoletti. Was passiert eigentlich mit den vertraulichen Informationen, die wir in der Software eintippen? Fragt man ChatGPT selbst, versucht das System dieser Frage auszuweichen. „Deine Daten werden ohne deine Autorisierung nicht bearbeitet“, heißt es. Jedoch muss man schon, um die Software zu benutzen, eine Einwilligung geben. Was danach mit den Daten passiert, bleibt unklar. Diesen Punkt sprach die italienische Datenschutzbehörde an und begann eine Diskussion, die sich bald in ganz Europa ausbreitete.

Es gibt nämlich Hoch- und Niedrigrisiko-KIs, erklärt Bartoletti. Hochrisiko-KIs werden zum Beispiel in China für die Überwachung der Gesellschaft genutzt, wie bei Gesichtserkennungssystemen und beim Social Scoring, einem Punktesystem, dass die Bürger in „gehorsam“ und „nicht gehorsam“ unterteilt. So etwas wäre in Europa nicht erlaubt. Genauso wie KI, die entscheiden, wer einen Kredit bekommt und wer nicht. „Der Einfluss auf die eigene Freiheit und die eigenen Rechte wäre zu groß“, sagt die Datenschutzexpertin.

Vom eigenen Smartphone kann sich der Mensch längst nicht mehr trennen. Aber wann wird eigentlich der Zeitpunkt gekommen sein, an dem er sich auch von der KI nicht mehr trennen kann? „Dieser Zeitpunkt ist schon gekommen – von Google Maps bis Netflix mit seiner personalisierten Filmauswahl, die durch Algorithmen erfolgt“, so Bartoletti. „Deshalb meine ich, dass wir diese Technologie nicht aus einer apokalyptischen Perspektive heraus betrachten sollten, da wir sie schon lange kennen und benutzen.“