Seit ein paar Monaten ist die Künstliche Intelligenz (KI) in aller Munde. Einige sehen in der Technologie eine Zeitwende, die die Arbeitswelt zum Positiven verändern könnte. Andere fürchten apokalyptische Szenarien, die entstehen könnten, wenn die KI außer Kontrolle geriete.
KI-Systeme könnten auf verschiedenen Ebenen die Arbeit erleichtern, wie bei der schnellen Herstellung von Texten zum Beispiel. Aber die Sorge, dass sie in naher Zukunft den Mensch als Arbeitskraft direkt ersetzen könnten, steigt.
Laut einem Bericht der US-Investmentbank Goldman Sachs könnten 300 Millionen Angestellte von der KI ersetzt werden. Die am stärksten gefährdeten Arbeitsplätze sind demnach Büro- und Verwaltungspositionen, gefolgt von Rechtsberufen und Architektur- und Ingenieurberufen. Wir haben eine Expertin gefragt, wie realistisch die Hoffnungen – und die Ängste sind.
Was versteht man unter Künstlicher Intelligenz?
„Auf diese Frage gibt es keine leichte Antwort“, sagt die Datenschutzexpertin und Autorin Ivana Bartoletti, die für den Datenschutz bei Wipro zuständig ist, einem multinationalen Unternehmen für Dienstleistungen aus den Bereichen des IT-Consultings und der Systemintegration mit Hauptsitz in Indien. Seit längerem setzt sich Bartoletti für den Schutz der Privatsphäre und die Regulierung der Technologiebranche ein. „Künstliche Intelligenz ist ein Teilgebiet der Informatik, das sich mit der Entwicklung von Hardware- und Softwaresystemen beschäftigt, die mit menschenähnlichen Fähigkeiten ausgestattet sind“, fasst sie zusammen.
Diese „menschenähnlichen Fähigkeiten“ seien das Lernen, die Argumentation, die Planung und die Fähigkeit zur Interaktion mit der Umwelt. Die große Neuerung dieser Maschinen ist, dass sie eigenständig Entscheidungen treffen können, die bis jetzt nur der Mensch getroffen hatte. Aber: „KI ist keine Neuigkeit“, sagt Bartoletti. „Man hat schon darüber geredet, als Alan Turing noch am Leben war“, also in den 1950er-Jahren. Was sich in den vergangenen Jahren verändert hat, ist die immense Verfügbarkeit an Daten und Rechenleistung.
Aktuell eingesetzte KI sammeln online tonnenweise Informationen von Datenbanken, die es ermöglichen, die Software zu trainieren. Deswegen ähneln zum Beispiel die Antworten von ChatGPT, einem umstrittenen System der Firma OpenAI, so sehr einer menschlichen, weil es versucht, diese nachzuahmen. „Es sind keine kreativen Maschinen“, betont Bartoletti.
Bei ChatGPT handelt es sich um einen Chatbot der sogenannten Generativen KI, die durch einen Input selbstständig Inhalte erstellen können, wie Texte oder Fotos. Die Software wurde vom Forschungs- und Entwicklungsunternehmen OpenAI entwickelt und von Microsoft finanziert.

Die Gefahren der KI
Mit dieser Technologie seien große Gefahren verbunden, meint Bartoletti. „Wenn man ChatGPT etwas fragt, was er nicht weiß, dann erfindet er eine Antwort“, erklärt die Autorin des Buches „An Artificial Revolution: On power, Politics and AI“. Die KI haben zudem Vorurteile und reproduzieren Klischees. Das konnten zum Beispiel die Nutzerinnen der App Lensa merken, die auf Basis von realen Fotos Avatar-Bilder herstellt.
Viele Nutzerinnen gaben an, dass die App sie nackt oder anders provokant darstellt; männliche Nutzer hingegen werden stets in einem virilen Aussehen abgebildet. „Das Vorurteil ist unvermeidlich“, sagt Bartoletti. „Diese Systeme sind auf Daten trainiert, die aus der ganzen Welt kommen. Es ist die Welt, die Vorurteile hat.“
Aktuell schaue man auf diese Technologie mit einer Kombination aus Aufregung und Angst, so die Expertin. „Man ist aufgeregt, weil man an die ganzen Möglichleiten denkt, die ein solches Instrument mit sich bringt. Ich denke zum Beispiel an das personalisierte Gesundheitswesen. Die Angst ist aber auch da, und das ist richtig so. Angst vor dem, wozu diese Maschinen im Stande sind.“ Sie könnten auch manipulativ wirken.
Bartoletti zufolge arbeiteten Wissenschaftler in den vergangenen Jahren zwar verstärkt daran, die Risiken zu minimieren. „Aber eins ist jetzt klar: Wir brauchen Regeln“, so die Datenschutzexpertin.
'We will live as one in heaven': Belgian man dies of suicide following chatbot exchanges https://t.co/3PfFQD5cqt #Belga #AI #ArtificialIntelligence #Chatbot #Belgium #GPTJ pic.twitter.com/BHYEt24No5
— Belga News Agency_English (@Belga_English) March 28, 2023
Wieso dürfen Italiener ChatGPT derzeit nicht nutzen?
Seit März ist die KI-Software ChatGPT in Italien gesperrt. Die italienische Datenschutzbehörde hatte den Betreiber OpenAI um Zusicherungen in Bezug auf den Datenschutz der Nutzer gebeten.
Der Anbieter hatte danach die Dienstleistung im Belpaese zeitlich blockiert, was sich nun wieder ändern könnte. „Wir sind bereit, eine Rückkehr von ChatGPT am 30. April zu erlauben, wenn OpenAI bereit ist, angemessene Maßnahmen zu ergreifen“, sagte Behördenchef Pasquale Stanzione in einem Interview mit der Zeitung Corriere della Sera. Laut Stanziones Einschätzung wird das von Microsoft unterstützte Unternehmen in der Lage sein, die Anforderungen der Datenschutzbehörde zu erfüllen.
„Die Datenschutzbehörde hat einen wichtigen Punkt angesprochen“, meint Bartoletti. „Datenschutz ist ein grundlegenderer Bestandteil der Innovation, es muss eine generative KI hergestellt werden, die respektvoll mit den Daten und der Privatsphäre der Nutzer umgeht. Das Wichtigste ist, eine gewisse Transparenz beizubehalten.“
Es fehlt eine Datenschutzerklärung: Wo gelangen die Daten hin?
„Das große Problem ist, dass ChatGPT keine Datenschutzerklärung bereitstellt“, so Bartoletti. Was passiert eigentlich mit den vertraulichen Informationen, die wir in der Software eintippen? Fragt man ChatGPT selbst, versucht das System dieser Frage auszuweichen. „Deine Daten werden ohne deine Autorisierung nicht bearbeitet“, heißt es. Jedoch muss man schon, um die Software zu benutzen, eine Einwilligung geben. Was danach mit den Daten passiert, bleibt unklar. Diesen Punkt sprach die italienische Datenschutzbehörde an und begann eine Diskussion, die sich bald in ganz Europa ausbreitete.
Es gibt nämlich Hoch- und Niedrigrisiko-KIs, erklärt Bartoletti. Hochrisiko-KIs werden zum Beispiel in China für die Überwachung der Gesellschaft genutzt, wie bei Gesichtserkennungssystemen und beim Social Scoring, einem Punktesystem, dass die Bürger in „gehorsam“ und „nicht gehorsam“ unterteilt. So etwas wäre in Europa nicht erlaubt. Genauso wie KI, die entscheiden, wer einen Kredit bekommt und wer nicht. „Der Einfluss auf die eigene Freiheit und die eigenen Rechte wäre zu groß“, sagt die Datenschutzexpertin.










