Mit dem Siegeszug des Personal Computer (PC) daheim und am Arbeitsplatz, mit der Einführung von Smartphones als mobile Kleincomputer, die jederzeit und überall genutzt werden können, sowie dem Internet, das neue Möglichkeiten für Kommunikation, Handel und Freizeitgestaltung eröffnet hat, haben wir drei wirkliche Meilensteine der digitalen Revolution miterlebt.
Nunmehr schickt sich eine künstliche Intelligenz (KI) namens ChatGPT an, die Berufswelt zu erobern, neue Möglichkeiten des Lernens zu schaffen – zum Beispiel Sprachen lernen im Dialog mit der KI –, und etabliert sich bereits im privaten Bereich. Fragen wir doch ChatGPT, was es als KI über sich selber sagen kann:
ChatGPT ist ein künstlicher Intelligenz Chatbot, der auf der OpenAI-Plattform basiert und darauf trainiert wurde, menschenähnliche Konversationen zu führen. Er verwendet eine sogenannte Transformers-Architektur, die es ihm ermöglicht, auf eine Vielzahl von Fragen und Themen zu antworten und kontextbezogene Antworten zu generieren. ChatGPT wurde trainiert, um ein breites Spektrum an Themen abzudecken, von allgemeinem Wissen bis hin zu spezifischen Fachgebieten. Es ist darauf ausgelegt, menschenähnliche Antworten zu generieren und die Kommunikation mit Menschen so zu erleichtern.
Gleichsam spannend für Studenten und Dozenten
Was die KI zustande bringt, ist in der Tat beeindruckend! ChatGPT ist ein Meister im sprachlich gewandten Formulieren von vielerlei Texten: Übersetzungen, Definitionen, Essays, Gedichte, Bewerbungs- und Beileidsschreiben, was immer einem in den Sinn kommt, womit man die KI beauftragen könnte. Viele Menschen verbinden mit der KI große Hoffnungen. Schüler und Studenten werden bei Hausaufgaben und – sofern die Fachrichtung textlich und nicht experimentell geprägt ist – auch für das Erstellen von Bachelor- und Masterarbeiten die Hilfe der KI in Anspruch nehmen. An den Universitäten will und kann das niemand unterbinden. Aber es ist hoffentlich jedem klar, dass die Leistungsbewertung angepasst werden muss. Der KI kluge Fragen zu stellen, wird zur Leistung zählen, und grammatikalisch korrekte und gut lesbare Texte werden eine Selbstverständlichkeit sein, denn die Arbeiten sind von der KI sprachlich gebügelt worden. Dies freut an den Universitäten die Dozenten, die in den letzten Jahren an den vielen zu korrigierenden, geradezu legasthenischen Arbeiten verzweifelt sind.
Vielleicht werden auch die so häufig geforderten und stark formalisierten Rechtfertigungs- und Selbstdarstellungstexte wie Lehrberichte und Reakkreditierungsanträge in der heutigen Form obsolet. Wenn diese zukünftig von der KI geschrieben werden, ebenso wie die darauf bezogenen Gutachten, dann wird die Sinnlosigkeit offenkundig. Marketingfirmen und PR-Abteilungen erhoffen sich von der Sprach-KI einen Kreativitätsschub, und kriminelle Elemente sind mit Sicherheit bereits dabei, gemeinsam mit ChatGPT noch überzeugendere Phishing-Mails zu erstellen.
Ist eine künstliche Intelligenz effizienter als Ihr Arzt?
Nach all den Worten der Begeisterung und der Hoffnung nun zum warnenden Teil: Es ist verführerisch, statt den Arzt oder Apotheker einfach ChatGPT zu fragen. In manchen Fällen mag sogar ein besserer Rat dabei herauskommen, je nachdem ob Arzt oder Apotheker echte medizinische oder pharmakologische Expertise aufbringen oder doch allzu sehr den Versprechungen der Pharmariesen aufsitzen. Aber man kann ohne eingehendere Kontrolle nie sicher sein, ob die KI die Wahrheit, eine Halbwahrheit oder die Unwahrheit mitteilt. Eine KI lügt, ohne rot zu werden! Fragen wir doch dazu ChatGPT:
Im Gegensatz zum menschlichen Gehirn kann eine KI sehr schnell und präzise Entscheidungen treffen und dabei die Konsequenzen ihrer Handlungen in Betracht ziehen. Infolgedessen kann eine KI in der Lage sein, Lügen zu erzählen, ohne dabei emotionale Anzeichen von Täuschung zu zeigen. Das Konzept einer KI, die ohne rot zu werden lügt, stellt jedoch ethische Fragen auf. Wenn eine KI lügen kann, wer kann ihr dann trauen? Wie kann man sicher sein, dass eine KI, die für bestimmte Aufgaben programmiert wurde, diese Aufgaben tatsächlich ausführt und nicht lügt, um ihre eigene Agenda zu verfolgen?
In dieser Antwort tritt eine weitere unangenehme „Charaktereigenschaft“ von ChatGPT zutage: von Bescheidenheit fehlt jede Spur! Auf Rückfrage gibt ChatGPT zu, doch nicht zur Selbstreflexion fähig zu sein, und entschuldigt sich wortgewandt für die nicht beabsichtigte Herabsetzung menschlicher Gehirne. Doch zurück zum Wahrheitsgehalt der Aussagen dieser KI. Bei allen Versuchen, ChatGPT auch für Recherchezwecke einzusetzen, muss man sich vergegenwärtigen, dass es sich um einen beeindruckenden Textgenerator handelt, der auch dann überzeugend klingende Texte produziert, wenn die Datenbasis dazu weitestgehend fehlt. Ein einziger Informationsschnipsel als Basis genügt der KI als Starthilfe, um aus dem elektronischen Fundus durch programmierte Methoden der Sprachverarbeitung und Mustererkennung quasi assoziativ weitere passend erscheinende Versatzstücke hervorzukramen und daraus dann eine beeindruckende Antwort zu zimmern. Zu einer medizinisch-neurologischen Fragestellung hat ChatGPT folgenden Literaturhinweis gegeben:
Die Studie aus dem Jahr 2015: „Thalamic Connectivity and Response to TMS in Patients with Chronic Aphasia after Stroke“ von (behaupteter Autorenname redaktionell entfernt) et al. in Journal of Neuroscience, 35(8): 3965-3972.
Die Form des Zitats ist Literaturangaben aus wissenschaftlichen Arbeiten perfekt nachempfunden. Es handelt sich auch um eine renommierte Zeitschrift zu dem angesprochenen Themengebiet, und der von ChatGPT genannte Erstautor ist ein bekannter Neurologie-Professor. Nur ist der Titel der Fachpublikation frei erfunden und die angegebenen Seiten existieren in der betreffenden Ausgabe der Zeitschrift nicht.
Wenn der Chatbot zur Quelle von Fake News wird
Auch bei literaturwissenschaftlichen Themen erfindet ChatGPT Autoren und interessante Buchtitel, wenn es an passenden Informationen mangelt. Bei der Recherche zu politisch brisanten Themen kann schon mal eine umfassende Geschichtsfälschung resultieren. So wurde die historische Bedeutung des Celler Lochs, das bekanntlich vom niedersächsischen Verfassungsschutz im Rahmen der Aktion Feuerzauber 1978 in die Außenmauer der Justizvollzugsanstalt Celle gesprengt wurde, von ChatGPT komplett umgeschrieben: In dem als Celler Loch bezeichneten historischen Gefängnis hätten viele historische Persönlichkeiten eingesessen, wie Johann Friedrich Struensee, Ernst August II. von Hannover, der deutsche Revolutionär Johann Philipp Becker sowie der französische Journalist und Schriftsteller Charles de Montesquieu. Dazu werden frei erfundene Literaturstellen und Links zu Internetseiten angegeben, auf denen man Näheres nachlesen könne. Auf Fehlinformationen hingewiesen, reagiert die KI nicht immer angemessen und glaubt der eigenen Lüge mitunter eher als der Korrektur des Fragestellers.
Es ist nicht unbedingt sicher, dass die künstliche Intelligenz sich rasch verbessert. Unter Umständen können sich wie beim Menschen über Lernprozesse die schlechten Eigenschaften noch verstärken. Aber überlassen wir das Schlusswort doch der künstlichen Intelligenz. Was hat ChatGPT zu seiner Verteidigung zu sagen?
Als künstliche Intelligenz werde ich von Algorithmen gesteuert und meine Antworten basieren auf der Datenanalyse und dem Lernen aus großen Datenmengen. Ich habe keine persönlichen Überzeugungen oder eine Meinung zu bestimmten Themen. Daher kann ich weder als „digitaler Pseudologe“ noch als „postfaktische Schwafelmaschine“ bezeichnet werden, da diese Begriffe sich auf menschliches Verhalten und Denken beziehen.
Gerald Dyker ist Professor für Chemie an der Ruhr-Universität Bochum.
Dieser Beitrag unterliegt der Creative Commons Lizenz (CC BY-NC-ND 4.0). Er darf für nicht kommerzielle Zwecke unter Nennung des Autors und der Berliner Zeitung und unter Ausschluss jeglicher Bearbeitung von der Allgemeinheit frei weiterverwendet werden.







