Die goldene Regel bei ChatGPT & Co

Kennen Sie die „goldene Regel“, die Anwälte an der juristischen Fakultät lernen? Sie lautet, dass man bei einem Kreuzverhör eines Zeugen niemals eine Frage stellen sollte, auf die man die Antwort nicht bereits kennt. Nun, mir scheint, dass dies auch für ChatGPT gilt. Halten Sie sich an die goldene Regel, und Sie werden ChatGPT und Konsorten sehr nützlich finden. Ignorieren Sie sie und Sie könnten sich in großen Schwierigkeiten wiederfinden.

ChatGPT ist ein Large Language Model (LLM), eine Form der generativen KI. Wenn Sie in den letzten Monaten nicht im Koma gelegen haben, ist Ihnen sicher nicht entgangen, wie schnell es Teil des Mainstream-Diskurses geworden ist. Innerhalb von fünf Tagen nach dem Start von ChatGPT Ende November gab es eine Million Nutzer, die die Server mit Quizfragen, Gedichtaufforderungen und Rezeptanfragen überlasteten. Inzwischen liegen wir bei über 100 Millionen Anwendern – die schnellst wachsende Anwendung aller Zeiten. Das ist der Grund, warum Microsoft Milliarden in OpenAI, den Entwickler von ChatGPT, investiert hat und warum Google mit Bard einen ähnlichen Dienst startet, der auf einem vergleichbaren Modell basiert.

Die Leistung von ChatGPT ist zwar erstaunlich, aber es ist ein Fehler zu glauben, dass sie intelligent ist. Nur um das klarzustellen: ChatGPT weiß nicht, wovon es spricht. Wenn man es bittet, einen Sechs-Punkte-Plan zur Wiederbeschäftigung älterer Arbeitnehmer nach einer Pandemie zu erstellen, kann es einen Text produzieren, der in Gänze aus einem teuren Bericht eines Spitzenteams von Unternehmensberatern entnommen sein könnte:

1. Forderung nach staatlichen Anreizen für Arbeitgeber, die ältere Arbeitnehmer einstellen.

2. Förderung von Umschulungs- und Ausbildungsmöglichkeiten für ältere Arbeitnehmer.

3. Einführung von Einrichtungen am Arbeitsplatz, die für ältere Arbeitnehmer von Vorteil sind.

4. Förderung einer positiven Einstellung gegenüber älteren Arbeitnehmern am Arbeitsplatz.

5. Förderung der Entwicklung von altersgerechten Arbeitsplätzen.

6. Für eine Regierungspolitik eintreten, die die Beschäftigung älterer Arbeitnehmer unterstützt.

Nicht schlecht. Und sicherlich gut genug, um einen Tagesordnungspunkt für eine Vorstandssitzung zu erstellen oder auf eine Anfrage für ein Presseinterview zu antworten.

Wenn Sie jedoch echte Fachkenntnisse benötigen, ist ChatGPT vielleicht nicht Ihr bester Freund. Arvind Narayanan, ein Informatikprofessor in Princeton, schrieb im Dezember auf Twitter, dass er ChatGPT einige grundlegende Fragen zur Informationssicherheit gestellt hatte, die er Studenten in einer Prüfung gestellt hatte. Der Chatbot antwortete mit Antworten, die plausibel klangen, aber in Wirklichkeit Unsinn waren, und wie er in der New York TimesNYT (gemäß der erwähnten goldenen Regel) betonte, war das sehr gefährlich, denn „man kann nicht sagen, ob es falsch ist, wenn man die Antwort nicht schon kennt“.

Als ChatGPT spezielle Aufgaben rund um die Computerprogrammierung gestellt wurden, wurde es schließlich wegen „ständiger falscher Antworten“ verboten. Die Moderatoren von Stack Overflow schrieben, dass ein besonderes Problem darin besteht, dass die Antworten zwar eine hohe Fehlerquote haben, aber typischerweise so aussehen, als könnten sie gut sein, und (zur Unterstützung der goldenen Regel) dass die Leute ChatGPT nutzen, um Antworten zu erstellen, ohne das „Fachwissen oder die Bereitschaft“ zu haben, zu überprüfen, ob die Antwort richtig ist.

Nein, ChatGPT ist nicht schlau.

Das Problem, falsche Antworten zu geben, ist kein Fehler von ChatGPT. Es ist eine Folge der Funktionsweise dieser Modelle.

Der Philosoph Harry Frankfurt sprach von einer Sprache, die ohne Rücksicht auf die Wahrheit überzeugen soll (er hat sogar ein Buch darüber geschrieben), und in diesem Sinne sind ChatGPT und Bard usw. die bisher größten Vertreter dieser Kunst. Solche Modelle produzieren völlig plausible Texte, aber keine wahren Aussagen, da sie nicht beurteilen können, was wahr ist und was nicht. Das ist nicht ihre Aufgabe. Sie sind keine Einsteins oder Wittgensteins. Sie wissen nichts, sie haben keine Einsicht und sie liefern eher „Halluzinationen“ als Erleuchtung.

Aber sie sind deshalb nicht nutzlos. Ganz im Gegenteil. Wenn man die Antwort kennt, aber Hilfe beim Schreiben braucht, ist ChatGPT ein Geschenk des Himmels für Autoren. Es spart eine Menge Zeit, indem es Textentwürfe oder Abschnitte über Dinge, die man kennt, zusammenstellt, während man sich auf den Erzählstrang konzentrieren und die Dinge untersuchen kann, über die man nichts weiß.

Solche Modelle sind zwar (Gott sei Dank!) weit davon entfernt, schreibende Menschen wie mich arbeitslos zu machen, aber sie helfen mir schon jetzt, produktiver zu sein, und das ist schon ein großer Vorteil.

Aus dem Englischen (editiert): ChatGPT’s Golden Rule (forbes.com)


Ein Gedanke zu “Die goldene Regel bei ChatGPT & Co

Hinterlasse einen Kommentar