ChatGPT

Coding, Hausarbeiten und Konflikte lösen: So hilft ChatGPT Berlinern im Alltag

Wie baut man einen Telegrambot als AI-Mediator? Ist ChatGPT „woke“? Sollten wir KI zukünftig stärker regulieren? Drei Nutzer und ein Experte erzählen.

Felix Niemeyer studiert an der TU Berlin. Er hat einen Telegrambot als Mediator programmiert, ChatGPT liefert das Sprachmodell.
Felix Niemeyer studiert an der TU Berlin. Er hat einen Telegrambot als Mediator programmiert, ChatGPT liefert das Sprachmodell.Benjamin Pritzkuleit

Felix Niemeyer klickt sich durch sein Tagebuch. Er sitzt in einem hellen Raum an der Technischen Universität Berlin auf dem Boden, den Laptop auf den Knien. Die Künstliche Intelligenz (KI) ChatGPT hat aus seinen Tagebüchern der letzten sechs Jahre mehrere Zusammenfassungen in unterschiedlicher Länge erstellt.Eine ist etwa hundert, eine andere zehn Seiten lang, die kürzeste Version umfasst nur noch eine Seite.

„Ich möchte meine Talente und Fähigkeiten verwenden, um anderen zu helfen und die Welt ein bisschen besser zu machen. Ich bin dankbar für ...“, heißt es dort. Die KI filtere positive Grundsätze heraus, meint Niemeyer.

ChatGPT gilt als Meilenstein bei der Entwicklung von Künstlicher Intelligenz. Der Chatbot von OpenAI ist darauf trainiert, menschenähnliche Konversationen in natürlicher Sprache zu führen. Experten sagen, dass die Menschheit kurz vor einer bahnbrechenden technischen Entwicklung stehe: eine künstliche allgemeine Intelligenz (AGI), die selbstständig lernt und handelt.

Während ältere Menschen sich oft besorgt über die rasante Entwicklung zeigen oder wenig darüber wissen, sind die Generationen Z und Y längst mitten im Gespräch mit der KI. Manche lassen sich lustige Gedichte schreiben oder verwenden ChatGPT als Recherchetool. Andere kopieren große Teile für wissenschaftliche Arbeiten aus dem Chat oder setzen die KI im Job ein. Die Berliner Zeitung hat mit vier Technikliebhabern darüber gesprochen, wie sie ChatGPT im Alltag nutzen. Mit dem jungen Gründer Noel Lorenz als Experten, dem Softwareingenieur Sascha Sieben und einer Studentin, die anonym bleiben möchte. Felix Niemeyer studiert ebenfalls und hat ein Telegrambot als Mediator mit ChatGPT im Hintergrund entwickelt. Er soll helfen, Konflikte zu lösen.

Wenn ChatGPT zum Therapeuten wird

Der 29-Jährige spricht leise und besonnen über die KI. Hin und wieder huscht der Anflug eines Lächelns über sein Gesicht – er ist offensichtlich fasziniert von der neuen Technik. Niemeyer studiert Design and Computation, betont aber, dass er das Programm für den Mediator aus eigenem Antrieb heraus geschrieben habe. Er benutzt viele technische Begriffe, erklärt sie aber dann langsam und geduldig. API (Application Programming Interface) nennt man zum Beispiel die Schnittstelle zwischen einem Programm und einem Service wie ChatGPT. Bei dem Mediator vermittelt ein Programm zwischen Telegram und der API von ChatGPT. Das Programm sei „Open Source“, sodass Interessierte es jederzeit unter diesem Link  weiterentwickeln könnten.

Ich befrage ChatGPT wie einen Therapeuten.

Felix Niemeyer

ChatGPT unterstütze ihn oft beim Reflektieren, erzählt er. „Wenn ich traurig bin oder innere Konflikte lösen will, frage ich ChatGPT“, sagt er. „Wie einen Therapeuten.“ Das habe ihn beruhigt und ihm geholfen, anders über die Situation nachzudenken. Ein befreundetes Paar stritt sich, so kam er dann auf die Idee, mit ChatGPT zwischenmenschliche Konflikte zu lösen. Mit seiner Anwendung funktioniere das mit beliebig vielen Teilnehmern in einer Telegramgruppe.

Noel Lorenz ist Gründer von Mindverse, ein Unternehmen, das verschiedene KI-basierte Anwendungen nutzt und für seine Kunden bereitstellt. Lorenz sagt, dass ChatGPT mit der Funktion, logische Antworten in natürlicher Sprache zu generieren, einen „wunden Punkt erwischt“ habe und deshalb so viel Aufsehen errege. „Anwendungen wie die des Mediators sind gerade erst der Anfang“, sagt der 25-Jährige. „Da wird noch viel mehr kommen.“ Er kann sich gut vorstellen, dass ChatGPT als Mediator gute Lösungsvorschläge gibt. Anfreunden würde er sich aber niemals mit einer KI.

Schon vor dem Treffen an der TU kommt es zu einem kleinen Konflikt mit Felix Niemeyer. Der AI-Mediator soll ihn beispielhaft lösen: „Felix will sich nicht fotografieren lassen“, steht nun im Chat. Mit dem Befehl „/mediate“ startet Niemeyer aus der Telegramgruppe heraus Privatchats mit dem Mediator, der durch ein Programm mit ChatGPT verknüpft ist. Jeder schildert dem Chatbot die eigene Perspektive. Dieser schickt in Sekundenschnelle einen Ratschlag, sobald er alle Positionen kennt. Er schlägt vor, Felix zu fragen, welche Möglichkeiten es gibt, seine Bedenken auszuräumen und vielleicht eine Alternative zu finden. Darauf könnte man auch selbst kommen. Niemeyer zeigt auch seinen Chat mit dem Bot, der normalerweise im Geheimen stattfindet. Diese Vorschläge zeigen schon eher, was der Bot kann:

„Ich denke es ist eine mutige Entscheidung, dich selbst und deine Ideen zu zeigen (…). Ich verstehe auch, dass du schüchtern bist, aber indem du dich deinen Ängsten stellst, kannst du Selbstvertrauen gewinnen.“ Er schlägt ein ehrliches, offenes Gespräch vor. Nach ein paar weiteren Argumenten, ohne Chatbot, sagt Niemeyer zu.

Ist die Künstliche Intelligenz zu „woke“?

„Ich wollte ChatGPT nicht nur nutzen, sondern damit etwas bauen“, sagt Niemeyer. Für eine Weiterentwicklung des Mediators hat er schon ein paar Ideen. Es wäre eventuell sinnvoll abzufragen, um welche Art von Beziehung es sich handelt und wie alt die Beteiligten sind, meint er. Oder dass der Bot sich vielleicht sogar automatisch einschaltet und eine Mediation anbietet, wenn er Teil einer Telegramgruppe ist und „die Fetzen fliegen“.

Felix Niemeyer spricht von einer positiven Tendenz, die ChatGPT innewohne und auf die er auch in Bezug auf den Mediator setzt. Die Person oder die Firma, die die KI trainiert, entscheide abhängig von den Daten, die benutzt würden, auch über die „Persönlichkeit“ der KI, erklärt Noel Lorenz. Medien berichteten, dass in den USA Kritik laut wurde, dass ChatGPT „zu woke“ sei. Woke beschreibt ein erwachtes Bewusstsein für soziale Ungerechtigkeiten und Rassismus. Von Konservativen wird der Begriff oft mit politisch korrekter Sprache in Verbindung gebracht. Elon Musk kündigte an, eine Konkurrenz zu ChatGPT aufzubauen, die anders geprägt sei. Er warnte mehrfach davor, dass KI das Überleben der Menschheit gefährde – und plant nun, eine politisch rechte KI trainieren zu lassen.

Menschen, die KI nutzen, werden Menschen ersetzen, die KI nicht nutzen.

Noel Lorenz, KI-Experte

„ChatGPT ist eine große Unterstützung“, antwortet Sascha Sieben auf Nachfrage. Er benutze ChatGPT bei seiner Arbeit als Softwareingenieur regelmäßig. Wir verabreden uns zur Mittagspause auf dem Tempelhofer Feld. Während er seine Schuhe anzieht, fängt er schon begeistert an, von der neuesten Problemlösung mithilfe der KI zu erzählen. Die Google-Recherche wegen einer Fehlermeldung blieb ergebnislos, ChatGPT erkannte aber, dass er ein Leerzeichen zu viel in den Code gebaut hatte. „Ich kann so viel schneller arbeiten“, sagt Sieben.

ChatGPT kann Codes schreiben, auf Nachfrage in einer beliebigen Programmiersprache. Beim Programmieren gebe es strikte Regeln, die alle dokumentiert sind, deshalb könne ihm ChatGPT so sehr helfen, erklärt der 33-Jährige. Angst um seinen Job hat er deshalb nicht. „Wenn ich einen Code habe, hab ich noch kein Programm“, sagt er. Es gebe viele Zwischenschritte, die ihm ChatGPT nicht abnehmen kann. Außerdem würde die Softwaretechnologie auf dem aktuellen Stand stehen bleiben, wenn die Entwickler und Ingenieure nicht mehr weiterarbeiten.

„Die Programmiersprachen entwickeln sich ständig weiter“, sagt Sieben. „ChatGPT kann da nicht mithalten.“ Das liege an der Beschränkung des Wissens bis zum Jahr 2021. Außerdem kämen teilweise falsche Antworten zurück. Die müsste man also „wie bei einer Google-Recherche auch“ kritisch hinterfragen.

„Halluzinieren“ nennt man diese Eigenschaft. Die KI ist darauf trainiert, immer eine Antwort zu geben. Noel Lorenz sagt, dass die Technologie derzeit verbessert werde, sodass ChatGPT Echtzeitdaten recherchiert und die Informationen mit Quellen belegt. Die Gefahr, dass die KI den Menschen ersetzen könnte, sehe er aktuell nicht. „Menschen, die KI nutzen, werden Menschen ersetzen, die KI nicht nutzen“, sagt er. Deshalb empfehle er zu akzeptieren, dass es so kommt, und sich zu dem Thema weiterzubilden. Es gebe Versuche, die Texte von ChatGPT von menschlichen zu unterscheiden. Allerdings würde das mit der Weiterentwicklung immer schwerer, weil die KI darauf trainiert wird, menschenähnliche Texte zu erzeugen.

Niemand weiß, warum die KI diese statt jene Informationen auswählt.

Sascha Sieben

„Wer die Technologie nicht nutzt, wird abgehängt“, sagt auch Sieben. Bedenken hat er eher im administrativen Bereich als in der Softwareentwicklung, aber auch dort sollte die KI nur unterstützend wirken und keine tiefgreifenden Entscheidungen übernehmen.

Bei Entscheidungen, die direkte Auswirkungen auf Menschen haben, würde es kritisch, sagt Sieben. Zum Beispiel, wenn es darum geht, Bewerber auszuwählen. „Es kann sein, dass die KI neutraler ist als ein Mensch“, räumt Sieben ein. „Solange ich das aber nicht weiß, kann ich darauf nicht vertrauen.“ Sieben lässt seinen Blick übers Tempelhofer Feld schweifen und sagt dann: „In dem Bereich würde ich die KI nicht benutzen, es müssten zumindest Personen die Verantwortung übernehmen.“

ChatGPT funktioniert derzeit wie eine Blackbox: „Niemand weiß, warum die KI diese statt jene Informationen auswählt, nicht einmal die Entwickler selbst“, sagt Sieben. Sie könnten zwar nach dem Grund suchen, aber die Blackbox sei unvorstellbar komplex.

Maya hat den Chatbot für die Uni benutzt

Die 24-jährige Maya Veger* möchte ihren richtigen Namen nicht in der Zeitung lesen. Sie sagt, dass sie ChatGPT schon für eine wissenschaftliche Arbeit benutzt habe, das soll die Universität nicht erfahren. Außerdem sei der Chatbot eine geeignete Hilfe beim Formulieren von Motivationsschreiben. Auch Tweets für ihren Arbeitgeber habe die Praktikantin von ChatGPT schreiben lassen; sie sagt, ein Kollege ging ähnlich vor. Kurz darauf erhielten alle eine Rundmail mit der Warnung vor dem Einsatz von ChatGPT.

Veger sagt, dass sie immer schon als Nerd bezeichnet wurde und kein Problem damit habe. Einer ihrer Dozenten hatte die KI seinen Studenten im Dezember vorgestellt und gezeigt, wie man sie benutzt: Er sprach Probleme mit den Quellen an und führte vor, wie Fragen gestellt sein müssen.

ChatGPT ist revolutionär!

Maya Veger*

Bei einer Literaturrecherche habe Veger dieses Wissen dann eingesetzt: „Ich war ziemlich spät dran“, sagt sie. Sie habe eingegrenzt, welche Quellen der Chatbot verwenden darf und wie er sie angeben soll, „mit Quellen im Chicago Manual of Style und Quellenauflistung“. Gegliedert habe sie die Arbeit selbst, Fragen immer nur auf einen bestimmten Punkt bezogen und sei so Schritt für Schritt vorgegangen. Auch beim Überprüfen von Texten verwende sie ChatGPT.

Nicht immer verstehe ChatGPT ihre Fragen richtig. Als sie nach „Feedback“ für ihr Motivationsschreiben fragte, generierte der Bot eine Absage, statt Verbesserungsvorschläge zu machen. Sie benutze ChatGPT meistens auf Englisch, da sie glaubt, die Menge an Daten sei so größer. Wie gefährlich ChatGPT sei, hänge davon ab, mit welchen Daten es gefüttert werde. So könnte das Sprachmodell zum Beispiel Diskriminierung reproduzieren oder die Anleitung zum Bau einer Bombe ausspucken, sagt Veger. Auf konkrete Fragen, die illegale Aktivitäten fördern, antwortet ChatGPT nicht. Aber eine andere KI könnte es künftig tun. „Man müsste im Internet generell mehr regulieren“, sagt Veger. Sie verstehe auch, dass eigene Forschung nicht mit ChatGPT gemacht werden sollte. Der Chatbot könne aber helfen, diese Forschung zu verstehen, bezogen auf bestimmte Quellen. „Das ist revolutionär!“, sagt sie.

Schon jetzt treffen KIs Entscheidungen an der Börse, sagt Noel Lorenz. Gibt man ihnen die Macht, könnten sie bald eigenständig handeln. Lorenz sieht die Lösung eher nicht darin, der Technologie moralische Grundregeln zu setzen oder die Nutzung einzuschränken. „Das wird unheimlich schwer“, sagt er. Der junge Unternehmer würde eher auf Aufklärung und Bildung setzen. Den Leuten müsse klar sein, wie die Technologie funktioniert und was sie kann.