ChatGPT ist langweilig
Chat-GPT ist derzeit in aller Munde. Einige sehen darin den Beginn der KI-Revolution, andere fürchten sich und schlagen eine Regulierung vor. Ich gehöre zwar fest zum zweiten Lager, muss aber sagen: ChatGPT ist langweilig.
Es ist ein „Bullshitter“.
Philosophisch betrachtet lügt das Programm nie, denn es kennt die Wahrheit nicht. Es ahmt das Schreiben von durch Menschen verfassten Texten nach und es täuscht auch vor, die Wahrheit zu sagen – ohne es aber zu tun.
Wie Harry Frankfurt, ein Philosophieprofessor aus Princeton, in seinem Essay "On bullshit" schreibt: “the bullshitter hides […] that the truth-values of his statements are of no central interest to him.” Was für ChatGPT relevant ist, ist dasselbe wie für den Bullshitter: Es steht weder auf der Seite der Wahrheit noch auf jener der Unwahrheit. Das Interesse von ChatGPT ist es, mit dem Gesagten davonzukommen. ChatGPT kümmert sich nicht darum, ob die Dinge, die es schreibt, der Realität entsprechen. Es pickt sie sich einfach heraus (aus dem Internet) oder erfindet sie (durch Generierung von Sprache), um dem Zweck zu dienen, auf menschliche Weise Fragen zu beantworten.
"It is impossible for someone to lie unless he thinks he knows the truth", erinnert uns Frankfurt. ChatGPT kennt die Wahrheit nicht, da er nichts weiß. Es ist ein Bullshitter par excellence.
„Warum gibt es so viel Bullshit?“, fragt Frankfurt. Er argumentiert, dass Bullshit unvermeidlich ist, wenn jemand aufgefordert ist zu reden, ohne zu wissen, wovon er spricht. Wenn aus Effizienz- oder finanziellen Gründen Maschinen aufgefordert sind, für Menschen zu sprechen, ohne zu begreifen wovon sie sprechen, wird mehr Bullshit produziert. In der Demokratie neigen die Menschen dazu, zu allem eine Meinung zu haben. ChatGPT macht also demokratischen Bullshit.
Es schreibt besser als die Menschen, deshalb – so wird angenommen – weiß es auch mehr. Die Leser:innen des Blödsinns halten diesen für die Wahrheit. Die gute Nachricht: Maschinenschwachsinn kann reguliert werden; bei Menschen ist das viel schwieriger.
Der Autor ist Unterzeichner des offenen Briefes "Pause Giant AI Experiments, der alle KI-Labore auffordert, das Training von KI-Systemen, die leistungsfähiger als GPT-4 sind, sofort für mindestens 6 Monate zu unterbrechen.