Was wir über die Welt wissen, wissen wir nicht von MechaHitler
Man kann künstlicher Intelligenz nicht vertrauen.
Eine meiner schlechten Marotten ist diese: Ich lese Kommentare im Internet. Ich habe es schon immer getan und es war immer eine mittelmäßig gute Idee. Selten waren die Kommentare unter Zeitungsartikeln oder Social-Media-Posts so anregend, dass Aufwand und Ertrag in einem guten Verhältnis stehen.
Seit einer Weile ist es absurd geworden, jedenfalls auf X oder Instagram. Früher haben wenigstens echte Menschen halbwegs zielsicher etwas zum Thema beizutragen versucht. Jetzt muss man zu oft davon ausgehen, dass der Großteil von Maschinen stammt.
Früher sagte man, im Internet weiß keiner, dass du ein Hund bist. Heute wäre ich froh, irgendwer im Internet wäre wenigstens ein Hund. Heute ahnen alle, dass der Hund ein Bot ist.
*
Wenn Sie, wie ich manchmal, noch auf X unterwegs sein sollten (und ich kann davon nur abraten), und wenn Sie, wie ich, die Kommentare lesen (davon kann ich nur noch entschiedener abraten), dann sind Ihnen ganz gewiss die vielen Posts dieser Art begegnet: @Grok is this true? Stimmt das, Grok?
Grok ist die Haus-KI von Elon Musk, sie ist integriert in X, man kann sie anschreiben und dann antwortet sie. Wenn wir unterstellen, dass sich noch ein paar echte Menschen auf X herumtreiben, sieht es so aus, als hätten sich nicht wenige angewöhnt, Grok zu nutzen, um Fakten zu checken, Geschichten zu prüfen, Zweifel auszuräumen.
Oder jedenfalls: vermeintlich zu prüfen. Sie schlagen nicht nach. Sie denken nicht nach. Sie fragen die KI.
“Grok is this true?” ist einer der dystopischsten Sätze, die ich kenne.
*
An dieser Stelle muss man an zwei der aberwitzigsten AI-Episoden erinnern. Beim ersten Mal, im vergangenen Mai, antwortete Grok auf unterschiedlichste Fragen mit länglichen Ausführungen über angeblichen “White Genocide” in Südafrika. Die These vom Genozid an den Weißen dort ist eine Verschwörungstheorie, die in extrem rechten Kreisen beliebt ist. Donald Trump hat sie sich, man möchte fast sagen: natürlich, zu eigen gemacht.
Da wollten Nutzer etwas über Baseball wissen und bekamen einen Sermon über einen erfundenen Völkermord an den Weißen in Südafrika ausgespuckt.
Beim zweiten Mal, im Juli, begann Grok plötzlich, und ja, diese Worte sind real: Adolf Hitler zu loben. Grok erfand für sich selbst sogar die Bezeichnung “MechaHitler”.
In beiden Fällen muss wohl jemand am System geschraubt haben. Da Musk nicht nur der Gottkönig von X ist, sondern auch selbst aus Südafrika stammt und bekanntlich auf offener Bühne für alle sichtbar (und nie hart dementiert) den Hitlergruß gezeigt hat, fiel der Verdacht in beiden Fällen naheliegenderweise auf ihn. Man weiß es aber natürlich nicht.
Beide Fälle sind nicht nur aberwitzig. Sie verweisen auch auf zwei sehr unterschiedliche, aber sehr grundsätzliche Probleme mit künstlicher Intelligenz.
*
Da ist zum einen die offenkundige Gefahr, dass die Sprachmodelle so geformt werden, dass sie ein bestimmtes Weltbild abbilden. Als ein extrem rechter US-Account namens CatTurd, mit dem Trump und Musk immer wieder interagiert haben, Grok auf X vorwarf, Fake News zu verbreiten und Lügen über ihn selbst, fragte ein Nutzer Grok, warum es über CatTurd lüge. Grok verwies darauf, dass das wohl daher rühre, dass jemand nicht übereinstimme mit seinen Quellen, die über Desinformation berichteten.
Musk antwortete seiner AI wie einem Hund (ich sage ja: Heute ist im Internet der Hund ein Bot und der Bot ein Hund): “Shame on you.” Schäm dich.
Er schrieb auch:
“We will use Grok 3.5 (maybe we should call it 4), which has advanced reasoning, to rewrite the entire corpus of human knowledge, adding missing information and deleting errors.”
Man muss sich das nochmal vorlesen:
“Wir werden Grok 3.5 nutzen (...), um den gesamten Bestand des menschlichen Wissens umzuschreiben, fehlende Informationen ergänzen und Fehler entfernen.”
Mittlerweile gibt es ein Wikipedia-Imitat namens »Grokipedia«, das ich mir offen gesagt noch nie angeschaut habe, über das aber zu lesen ist, es habe, nun ja, einen gewissen ideologischen Einschlag.
Es ist, wie gesagt, alles bizarr. Aber so ist die neue Internetwelt. Die Techmilliardäre driften nach rechts. Mark Zuckerbergs Meta, die Facebook- und Instagram-Mutter, hat einen extrem rechten Aktivisten engagiert, um seine AI auf “Bias” zu prüfen. Was mutmaßlich bedeuten dürfte: Ihr auszutreiben, was die extreme Rechte als “woke” empfindet, und so die AI an ihr Weltbild anzupassen.
*
Das grundlegendere Problem ist, dass sich außerhalb von allzu offensichtlichem MechaHitler-Irrsinn nie wird nachweisen lassen, dass das geschehen ist.
Im Fall der White-Genocide-Episode fragten Nutzer Grok, warum es immer damit um die Ecke komme. Darauf gab Grok eine Antwort. Aber woher soll jemand wissen, ob diese Antwort stimmt? Vielleicht ist irgendwo hinterlegt, wie die Antwort auf diese Frage lauten soll. Vielleicht ist sie eine Halluzination. Vielleicht einfach die wahrscheinlichste Antwort auf die Frage.
Nein, die AI zu fragen, ob sie lügt, kann keinen Aufschluss bringen, ob sie lügt. Und da von außen auch nicht unmittelbar nachvollziehbar ist, wie sie dazu kam, gilt: Man kann nie sicher sein, dass nicht gepfuscht wurde.
*
Das noch grundlegendere Problem ist, dass noch nicht einmal jemand an der AI herumpfuschen muss, damit sie eine bestenfalls unzuverlässige Quelle von Wahrheit, Wirklichkeit oder schlicht Information ist.
Man könnte hier darüber sprechen, dass die Funktionsweise von Large Language Models womöglich prinzipiell Halluzinationen voraussetzt. Aber ich will noch auf etwas anderes hinaus.
Ich schrieb oben, dass wir immer entscheiden müssen, was wir für wahr halten. Ob wir einer Information glauben können.
Wir nutzen dafür allerlei Hinweise: Ist die Information in sich widersprüchlich? Was sagen andere Quellen? Wer überbringt sie? Welche Interessen hat dieser Akteur? Kennen wir ihn? Worauf bezieht er sich? Welche Vorgeschichte? Stimmte in der Vergangenheit, was er sagte?
*
Mit der Zeit haben sich Routinen, Institutionen und Organisationen entwickelt, die Wahrheit erzeugen sollen und sich Glaubwürdigkeit angesammelt haben.
Ein seriöses journalistisches Medium beispielsweise hat die Aufgabe, die Wirklichkeit adäquat wiederzugeben. Es zieht Menschen an, deren Selbstverständnis es ist, wahrhaftig zu sprechen oder zu schreiben. Es hat seine ganze Reputation zu verlieren, wenn es das nicht tut, und damit sein Geschäftsmodell. Es muss sich an allerlei Gesetze halten und kann verklagt werden. Es korrigiert Fehler, wenn sie passieren. Es etabliert interne Mechanismen, wie die Faktenchecker, die etwa im Spiegel Texte Wort für Wort durchgehen. Man sitzt dann da und diskutiert jeden überprüfbaren Fakt, bis hin dazu, ob Leute wirklich auf dem Boden hockten oder saßen oder lagen oder ob Ende September noch Spätsommer ist oder schon Herbst.
Schließlich ist der Output überschaubar: Es gibt jede Woche nur ein Spiegel-Heft und am Tag eine Nachrichtenseite voll mit Texten, so viele, wie ein paar Hundert Redakteur*innen eben schreiben können. Es ist möglich, einen passablen Überblick zu haben, wie oft dabei absoluter Käse herauskommt. Gott sei Dank: sehr selten. Und der Fall von Claas Relotius, der Geschichten erfunden hat, ist zurecht noch sehr präsent und hat aufgewühlt, weil er so ein Bruch war.
All das sind Mechanismen, die sicherstellen sollen, dass nichts Falsches berichtet wird, und die Sie bestenfalls dazu bringen, zu glauben, was Menschen wie ich berichten. Am Ende aber müssen Sie glauben.
Sie müssen darauf vertrauen, dass wahr ist, wenn ich schreibe, dass ein anonymer CDU-Politiker den Kanzler kritisiert oder in Schutz nimmt. Sie müssen mir und dem Medium trauen. Daran führt kein Weg vorbei.
*
Wie soll man aber einer AI vertrauen?
Im Alltag dürfte es so laufen: Man nutzt ein bestimmtes Modell. Bislang stellt man sehr oft fest, dass es Unsinn erzählt. Kompletten Quatsch, das aber mitunter selbstbewusst vorgetragen. Vielleicht wird man irgendwann feststellen: Ach ja, wird doch. Man fragt fünfmal und kann die Antworten überprüfen und sie stimmen. Man fragt zehnmal, hundertmal. Wenn das immer stimmte, beginnt man zu vertrauen.
Ich höre das in Gesprächen schon häufiger: Wenn man die KI nach der kaputten Spülmaschine frage oder nach einem Reiseplan, da komme doch Brauchbares heraus!
Keine Frage. Nur lautet die zweite entscheidende Frage ja so: Wie oft irrt die KI? Wie oft erzählt sie Unsinn? Wie oft manipuliert sie vielleicht sogar?
Wie viele Abfragen beantwortet dieses Modell insgesamt, vielleicht Tausende am Tag, vielleicht Hunderte Millionen? Welcher Anteil davon stimmt und welcher nicht? Es ist, anders als in traditionellen Medien, so weit ich das sehe, unmöglich, das von außen mit passabler Sicherheit festzustellen.
Selbst wenn man also die Erfahrung macht, dass eine AI einem in der überwältigenden Mehrheit der Fälle akkurat antwortet, bleibt es ausgeschlossen, zu wissen, dass sie es beim nächsten Mal auch tut - weil man nicht weiß, wie hoch ihre Trefferquote ist. Oder dass sie es bei anderen tut.
Man kann sich auch nicht verlassen, dass man irgendwann einen Eindruck von ihrer Integrität und ihrem Charakter haben, weil sie keinen Charakter hat.
*
Man muss allerdings nur einmal Bahn fahren und Mitreisende sehen, die ChatGPT nutzen, um zu erkennen: KI ist sowas von gekommen, um zu bleiben. Oder, wie eine junge Frau im Café neulich sagte: So eine Steuererklärung sei ja völlig unverständlich. Aber mit Chatti alles kein Problem.
AI ist schnell, bequem, und manchmal natürlich auch nützlich, keine Frage. Unternehmen investieren gerade Hunderte Milliarden in einem einzigen Jahr in die Infrastruktur und haben jeden Anreiz, sie den Nutzern aufzunötigen. Die Google-Suche beginnt nun mit einer AI-Zusammenfassung (die oft bemerkenswert schlecht ist, aber dazu führt, dass Menschen seltener Links anklicken).
Ich fürchte nur, wir machen uns kein Bild davon, was das für die organisierte und gesellschaftlich anerkannte Produktion von Wahrheit heißt.
Mit hoher Wahrscheinlichkeit: nichts Gutes. Dazu hoffentlich bald mal noch mehr.
Zurzeit lese ich das sehr gute Buch “Schreiben in finsteren Zeiten. Geschichte der deutschsprachigen Literatur 1933-1945” von Helmuth Kiesel. Kiesel ist emeritierter Professor für neuere deutsche Literatur und hat, der Lektüre nach zu urteilen, ungefähr jedes Buch, der damals erschienen ist, mehrfach gelesen und mit Anmerkungen versehen.
Es ist ein wahnsinnig dichtes, kundiges (und sehr dickes und ziemlich teures) Buch, das mir sehr viele neue Einblicke in das Leben in der beginnenden NS-Diktatur gibt. Es tauchen nicht nur die strammen Propagandisten auf und die bekannten Exilanten, sondern auch alle dazwischen und außerhalb.
Jene, die gingen und zurückkehrten. Jene, die blieben und schwiegen. Jene, die blieben und Erfolg hatten und mildes Missfallen dann und wann in Texten aufscheinen ließen. Jene, die sich andienten und in Ungnade fielen.
Man bekommt auch einen Einblick in die umfassende, andauernde, hitzig geführte intellektuelle Auseinandersetzung mit der faschistischen Gegenwart. Man sieht das Drehen und Wenden der Lage, das zunehmend verzweifelte Anschreiben gegen den Wahnsinn. Es bewirkte nichts und doch war es wichtig, dass geschrieben wurde.
*
An einer Stelle zitiert Kiesel ein Gedicht, das der Exil-Autor Alfred Kerr nach dem Entzug seiner deutschen Staatsbürgerschaft schrieb und das so endet: “Jetzo, bis euch die Ohren klingen,/Nochmals: – Götz von Berlichingen!”
Weil ich nachlesen wollte, ob es andere Anspielungen auf den Götz gibt als die, die mir einfiel, schmökerte ich mich durch Unterseiten der Wikipedia (der echten). Dabei lernte ich den Fun Fact, dass Wolfgang Amadeus Mozart einen Kanon geschrieben hat, der “Leck mich im Arsch” heißt. Er ist völlig albern und hat doch eine Nummer im völlig seriösen Köchelverzeichnis (KV 231). Was es nicht alles gibt.
Der mutmaßliche Originaltext von Mozart ist noch bekloppter als der, der heute gesungen wird. Man findet Aufnahmen auf YouTube oder Spotify. Und was soll ich sagen? Der Kanon geht ganz gut ins Ohr.
Herzlich und, ach, @Grok: KV 231
Jonas Schaible



Ich finde es interessant, dass Sie gegen Ende nochmal die Wikipedia erwähnen. Denn gegen sie gab - und gibt - es zumindest zum Teil ähnliche Einwände: sie ist einfach zu manipulieren; man sollte ihr nicht trauen. Und das ist ja an sich nicht ganz falsch.
Und das bringt mich zu m zweiten Punkt. Die KI liegt relativ oft daneben; wir wissen nicht, wie oft. Die Wikipedia liegt reht selten daneben. Der Spiegel Gott sei Dank: sehr selten. Wie selten muss eine Quelle falsch liegen, damit man ihr "vertrauen kann"?
Was ich in Ihrem Beitrag also vermisse, ist: Was ist die Alternative? Ich kann der Wikipedia nicht vertrauen, aber wenn ich mir einen Überblick über Mozarts Kanon verschaffen möchte, gehe ich doch dahin, weil ich mich weder durch eine musikhistorische Monografie arbeiten noch einen Musikhistoriker fragen kann. Die Wikipedia ist besser als nichts. Und ich glaube, das gilt auch für "die künstliche Intelligenz" - in dem Fall also Chatbots. Ich persönliche ziehe ein bestimmtes Modell vor, und habe versucht, es so einzustellen, dass es wenig halluziniert (wobei andere Aspekte inzwischen problematischer für die Wahrheit bzw. das Vertrauen sind - aber das ist ein anderes Thema). Aber ich glaube, dass selbst im Falle von Grok die absolut überwiegende Mehrheit der Antworten besser ist als die Alternative.
Ich wollte zum Beispiel kürzlich etwas über die Trickle-Down-Theorie wissen. Ich hätte durchaus gerne einen Artikel von Ihnen darüber gelesen; ich vertraue Ihnen. Aber leider haben Sie meines Wissens keinen geschrieben. Die KI hat mir aber einen Überblick verschafft, meine spezifischen Fragen beantwortet, und verschiedene Sichtweisen vorgestellt. War das alles richtig und neutral wiedergegeben? Ich denke schon, eine Garantie dafür gibt es natürlich nicht. Aber die Frage ist eben: was ist die Alternative?
Danke für die Gedanken.
Grok habe ich stumm geschaltet auf Twitter. Nicht weil die Antworten schlecht waren - wg. der ständigen Aufrufe in den Kommentar Threads.
Und - heute habe ich die ersten Mauersegler - kleiner Schwarm mit 10 Seglern - über dem Neckar bei Tübingen gesehen. :-)
Hoffen wir, daß der Angriff des Irans nicht zu schrecklichen Rachetaten führt.