Künstliche Intelligenz

Experte warnt: ChatGPT auf keinen Fall Geheimnisse verraten

Der KI ein paar Vertraulichkeiten mitgeteilt oder politische Ansichten preisgegeben? Das sollten Sie besser nicht tun, warnen Experten der Universität von Oxford.

Einkaufszettel ja, politische Ansichten nein: Die Universität von Oxford warnt davor, ChatGPT allzu intime Sachen mitzuteilen.
Einkaufszettel ja, politische Ansichten nein: Die Universität von Oxford warnt davor, ChatGPT allzu intime Sachen mitzuteilen.SOPA Images/imago

Was klingt, wie die Technikfeindlichkeit schlechthin, wird nun von der britischen Zeitung Daily Mail bestätigt: ChatGPT sollte man weder Geheimnisse noch politische Ansichten verraten. Auch nicht die Meinung über den eigenen Chef, warnt Oxford Professor Mike Wooldridge.

KI erzähle nur, was man hören wolle

Laut Wooldridge sollte man eine KI keinesfalls als vertrauenswürdigen Gesprächspartner behandeln, denn dadurch könne man große Probleme bekommen. Der Grund: Alles, was man einem Chatbot sage, diene dazu, künftige Versionen zu trainieren.

ChatGPT sei darauf programmiert, dem Gegenüber ohnehin nur das zu sagen, was er hören wolle, behauptet der Professor. „Sie sollten davon ausgehen, dass alles, was Sie in ChatGPT eingeben, direkt in künftige Versionen von ChatGPT eingespeist wird“, so Wooldridge. Dementsprechend sei es äußerst unklug, seine persönlichen Ansichten preiszugeben, um eventuelle Antworten darauf zu erhalten, ob sich der Chef richtig verhalten oder wie man den nächsten Wahlzettel ausfüllen solle.

Professor Wooldridge fügte hinzu, dass es aufgrund der Funktionsweise der KI-Modelle nahezu unmöglich sei, die Daten zurückzubekommen, wenn sie einmal im System seien. Anfang des Jahres musste die Firma OpenAI, die hinter ChatGPT steht, einen Fehler beheben, der es Nutzern ermöglichte, Teile der Chatverläufe anderer Nutzer zu sehen. Das Unternehmen verspricht allerdings, die Daten nur 30 Tage lang aufzubewahren und sie nicht zum Training des Chatbots zu verwenden.