Wie können wir ChatGPT nutzen – und wie nicht

ChatGPT ist von sich selbst nicht wenig überzeugt. Auf die Frage, zu was man sie benutzen könne, antwortet die KI-App selbst:

Fragen beantworten und Informationen suchen: Nutzen Sie ChatGPT, um schnell Antworten auf Fragen zu finden, Informationen zu recherchieren oder komplexe Konzepte zu erklären. Verbessern Sie die Effizienz, indem Sie ChatGPT verwenden, um Informationen in großen Textmengen zu durchsuchen und relevante Passagen hervorzuheben.“ (Christine Gebler: Chattest du schon oder recherchierst du noch?)

Aber kann man dieser Auskunft trauen? Ist diese KI schon so weit vermenschlicht, dass sie uns kaltlächelnd anlügt?

Bietigheim und die KI: Ein Beispiel

Vor Weihnachten erwarteten wir Verwandte aus Kanada. Sie hatten noch nie Deutschland besucht, und meine Frau meinte: „Da überlegen wir uns ein richtig schönes Besuchsprogramm!“ – „Wir uns?“, dachte ich bei mir. „Das kann ich auch anders.“ Und ich beauftragte ChatGPT, ein Programm mit mindestens zehn Vorschlägen für Unternehmungen zusammenzustellen.

ChatGPT machte sich ans Werk und spuckte gleich eine Liste aus. Ich muss vorher noch sagen, dass wir in dem kleinen Ort Bietigheim wohnen, 10 km südlich von Karlsruhe und 2 km vom Ufer des Rheins. Als deshalb ChatGPT vorschlug, die naturgeschützten Rheinauen zu besuchen und auch eine 1000 Jahre alte Wallfahrtskirche, leuchtete uns das sofort ein. Aber dann kam der Tipp: „Und besuchen Sie doch das Schloss mit seinem wunderbaren Park.“ Wie bitte? Bietigheim hat kein Schloss und deshalb noch weniger einen Schlosspark.

Was war passiert? Es gibt einen zweiten Ort in der Nähe von Stuttgart mit Namen Bietigheim-Bissingen. Dort gibt es ein Schloss.

Ich antwortete ChatGPT: „Ich wohne in Bietigheim-Baden, nicht in Bietigheim-Bissingen. Hier gibt es kein Schloss. Bitte mache mir einen anderen Vorschlag.“ Chatty entschuldigte sich höflich für seinen Irrtum und schrieb nun: „Dann macht doch eine Bootsfahrt auf dem Neckar.“ Hoppla: Neckar ist Bietigheim-Bissingen, nicht in Baden. ChatGPT hatte nichts kapiert. Kann es auch nicht.

Künstliche Intelligenz wird in den Medien oft durch menschenähnliche Bilder dargestellt. Missverständnisse sind so – naja, vorprogrammiert. (Quelle: Depositphotos_224748284_XL.jpg)

Blick in den Maschinenraum der „KI“

Um das zu verstehen, muss man eine Vorstellung haben, wie diese KI intern funktioniert.

Ab den 1950er Jahren wurde in der Entwicklung „Künstlicher Intelligenz“ eine Strategie gefahren, bei der versucht wurde, den menschlichen Blick auf die Welt in digitalen Datenmodellen abzubilden. Zum Beispiel wurden Verknüpfungen gebildet wie
      “Paris = Hauptstadt(Frankreich)“
oder eben auch
      “Paris = Kleinstadt in Texas“.

Das nannte man eine Ontologie, also eine gigantische Menge von Dingen in der Welt und ihren Verknüpfungen. Ein großes Problem war das Lernen solcher Systeme. Es gab Probleme, dass ein solcher Algorithmus aus Informationen selbst zusätzliche Verknüpfungen erkannte wie
       „Paris = griechische Sagenfigur“
wenn man ihm die Ilias von Homer zu lesen gab. – Letztlich (bzw. bislang) scheiterte dieser Ansatz. Kein Computer ist bis heute in der Lage, Begriffsnetze, die wir Menschen über die Welt spannen und das auch noch dynamisch (lernend, mit Zeitbezug wie „damals in Troja“), abzubilden.

Eine neue Strategie wurde entwickelt und setzte sich letztlich durch: die statistische Strategie, auch „Mustererkennung“ genannt. Darauf beruht ChatGPT. Derartige Programme werden mit Milliarden von Texten gespeist. In diesen Texten sucht es nach Mustern. Und zwar Muster in Worten (Textstrings), nicht Muster von Entitäten. In den Trainingsdokumenten mag es ein paar Dutzend oder ein paar Hundert Texte gegeben haben, in denen „Bietigheim“ zusammen mit „Rheinufer“ oder „Neckar“ vorkam. Das heißt, mal über das Karlsruher Bietigheim und mal über das Stuttgarter. Für ChatGPT sind beides die gleichen Buchstabenfolgen. Für ein ontologisches System wie oben wären das ganz verschiedene Objekte (englisch: Entities). Das kann ChatGPT aber nicht unterscheiden, weil es dafür in seinem Datenmodell keine Repräsentanz gibt.

Wenn „Bietigheim“ auch noch der Name eines Schiffs der Bundesmarine wäre (deutsche Großstädte haben oft Patenschaften für Schlachtschiffe), dann hätte ChatGPT auch den Vorschlag einer Schiffsbesichtigung machen können. Wäre Bietigheim eine internationale Metropole wie Paris oder Sydney, hätte es seinen Namen eventuell auch einer Parfümmarke geliehen. Und ChatGPT wäre auf die Idee gekommen, die weiblichen Gäste doch mit einem Flakon Bietigheim zu begrüßen. In meiner Anfrage bei ChatGPT hatte ich wohl geschrieben, dass ich in „Bietigheim in Baden“ wohne; aber das hatte es bei seiner Textgenerierung nicht berücksichtigt – und konnte es auch nicht.

Fazit

Wir können ChatGPT durchaus für die Recherche von Informationen benutzen. Aber jedes einzelne Ergebnis muss man im Detail nachrecherchieren. Ich persönlich nutze deshalb nie ChatGPT, sondern Bing von Microsoft. Das liefert die Quellen mit, die es für seine Auskünfte verwendet hat, und erleichtert so die Nachprüfung.

Literaturhinweis

Ein sehr guter Überblick über die Entwicklung der KI in den letzten Jahrzehnten ist bei Soziopolis erschienen: Rainer Rehak: Zwischen Macht und Mythos

Ähnliche Beiträge

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert