ChatGPT

Die kostenlose Version von ChatGPT ist auf dem Wissenstand von 2021, deshalb kann sie keine Fragen zu aktuellen Ereignissen beantworten. | Bildquelle: ap/Richard Drew

ChatGPT ist ein Chatbot, also ein Computerprogramm, mit dem man Textnachrichten hin und her schreiben kann. Anders als eine Suchmaschine kann ChatGPT aber nicht nur einfache Fragen beantworten, sondern auch kompliziertere Aufgaben lösen. Zum Beispiel: "Schreibe eine Interpretation des Gedichts 'Die Liebenden' von Berthold Brecht". Das Besondere: Die Texte, die ChatGPT verfasst, lassen sich nur schwer von menschlichen Texten unterscheiden.

Wie funktioniert ChatGPT?

Genau wie wir Menschen musste auch ChatGPT erst lernen, Sprache zu verstehen und selbst anzuwenden. Dafür wurde es mit Abermillionen von Texten gefüttert, zum Beispiel von Internetseiten, Beiträgen aus sozialen Medien und aus Büchern. Mithilfe dieser Texte hat die künstliche Intelligenz nicht nur Fakten gelernt, sondern auch, wie man Sätze formuliert und welche Wörter typisch für bestimmte Textarten wie Wissenschaftstexte oder Kochrezepte sind.

Fordert man einen Text an, berechnet ChatGPT, welche Wörter in diesem Text auftauchen müssen und welches Wort das wahrscheinlichste erste Wort wäre. Dann berechnet es die wahrscheinlichsten Folgewörter, immer eins nach dem anderen – solange, bis ein vollständiger Text entstanden ist. ChatGPT arbeitet also anders als wir Menschen. Anstatt Texte Wort für Wort zu entwerfen, wissen Menschen ja schon vorher grob, was sie schreiben wollen. Das Ergebnis ist trotzdem eindrucksvoll: Die Texte der künstlichen Intelligenz lesen sich flüssig und klingen logisch.

Probleme und Risiken von Chat GPT

Ein großes Problem: ChatGPT kann auch falsche Antworten produzieren! Die künstliche Intelligenz wurde ja mit Informationen aus dem Internet gefüttert. Und da steht auch ganz schön viel Quatsch, den ChatGPT in seinen Texten als Tatsachen wiedergeben kann. Und nicht nur das: Hat ChatGPT in einem bestimmten Bereich kein Wissen, erfindet es manchmal auch Fakten. Dieses Phänomen nennt sich „Halluzination“.

Setzen, zwei! – Die im März 2023 erschiene Version von ChatGPT hat das bayerische Abitur geschafft. | Bildquelle: picture alliance/ dpa/ Silas Stein

Gleichzeitig ist es schwer, die Texte von ChatGPT zu überprüfen. Der Chatbot schreibt nämlich nicht dazu, woher seine verwendeten Informationen stammen. Inzwischen gibt es zwar eine Suchmaschine, die ChatGPT integriert und die Quellen der Antworten auflistet. Bei der „normalen“ Version von ChatGPT bleibt es aber schwierig nachzuvollziehen, woher die Aussagen stammen. Deshalb ist es wichtig, dass wir uns nicht blind auf die Antworten verlassen. ChatGPT ist keine Faktenmaschine, sondern letztlich nur darauf trainiert, logisch klingende Texte zu verfassen.

Fachleute sehen daher die Gefahr, dass intelligente Systeme wie ChatGPT im großen Stil Lügen verbreiten können – auch weil Menschen mit schlechten Absichten sie gezielt manipulieren und mit Falschinformationen füttern könnten. Das wäre sehr gefährlich, weil Menschen sich dann aufgrund falscher Tatsachen eine Meinung bilden.

Auch in Bezug auf Datensicherheit und Datenschutz gibt es Bedenken. ChatGPT sammelt Daten über die Nutzerinnen und Nutzer, etwa welche Anfragen sie stellen. Diese Daten können theoretisch für andere Zwecke missbraucht werden, wie zum Beispiel zielgerichtete Werbung oder, um die Person zu erforschen, die die Suchanfragen stellt.

Mit der Einwilligung deiner Eltern darfst du ChatGPT schon ab 13 Jahren benutzen. | Bildquelle: ap/Richard Drew

Ein weiterer Kritikpunkt ist, dass ChatGPT Menschen Arbeitsplätze wegnehmen könnte. Diese Sorge besteht übrigens nicht nur bei ChatGPT, sondern auch bei anderen Systemen, die mit künstlicher Intelligenz ausgestattet sind. Tatsächlich ersetzen schlaue Maschinen in einigen Bereichen bereits menschliche Arbeitskräfte. In Zukunft wird das noch mehr Arbeitsplätze betreffen. Expertinnen und Experten sagen aber, dass dank künstlicher Intelligenz auch neue Arbeitsplätze und Berufe entstehen werden.