In den letzten Wochen grübelte ich einiges zum Thema ChatGPT, Bard und generell den LLMs, die grade diverse Branchen aufmischen. Naturgemäß schau ich aus der SEO-Ecke drauf und muss zugeben, nicht so recht die Finger draufzukriegen. Insofern, eine Latte Gedanken (hoffentlich einigermaßen klug) und viele offene Fragen (hoffentlich einigermaßen spannend).
Um kurz zu umreißen, wo ich entlangdenken will:
Ich gehe davon aus, das LLMs/AIs bereits jetzt stupide Text- und Grafikjobs erledigen, das eine Gute Sache sein kann, und weiter durchaus auch Kreativität der menschlichen Akteure in den entsprechenden Branchen fördern können. Gruselig wird die Kiste in Richtung „Spammen der Diskurse“ und genereller Manipulation, rechtlich wird die Rechtslage in Sachen Trainings- und Ergebnisdaten noch witzig. Spannend scheint mir, wer letztendlich damit Geld verdienen kann bzw. wird und womit (siehe auch den Google-Leak zum Thema, wo das „Wir können nix damit verdienen!“ der etwas unbeachtete Elefant im Raum von „Himmel, das können jetzt alle, und womöglich besser als die üblichen Verdächtigen“ ist.)
Aus der SEO-Perspektive seh ich LLMs unverändert als weitgehend untauglich für eine zuverlässige Wissensorganisation bzw. -aufbereitung. „AI“ lass ich da bewusst weg, siehe unten. Zentrales Problem scheint mir da die „stochastische“ Grundlage des ganzen Modells zu sein. Und was ich absolut nicht verstehe ist, warum in der ganzen Diskussion um die Relevanz und Zuverlässigkeit LLM-generierter Inhalte nie die Rede von Knowledge Graphen ist. Bzw., ich hab die Privathypothese, dass ein KG eben ein komplett anderer Ansatz ist, den man nicht eben mal an ein LLM anflanschen kann.
Einer draufgesetzt: ganz tapfer vermute ich, dass Google genau deswegen von OpenAI/ChatGPT auf dem falschen Fuß erwischt wurde, weil sie die rein stochastische Contentgenerierung da nicht als „Endnutzerschnittstelle“ in Erwägung gezogen haben und insbesondere ihr Kernprodukt (Suche/Informationsaufbereitung) massiv von Knowledge Graph-Strukturen geprägt ist. Was mir im Übrigen vollkommen einleuchten würde, weil sich aus KGs eben verifizierbare Aussagen ableiten lassen, Strukturen gezielt angelegt und geändert werden können (und müssen), während LLMs eben wie gehabt stochastisch funktionieren und der Trainingsprozess zumindest verglichen mit einer KG-Struktur eine sehr schwarze Blackbox ist. Aber von vorne.
LLMs/AI, stupide Textjobs und kreativer Einsatz
Ich verfolge die Debatte um LLMs durchaus und ahne, dass hier durchaus kein „Blockchain 2.0“ im Sinne eines „Eine Lösung auf der Suche nach einem Problem“ am Start ist. Usecases galore, das Problem ist allenfalls die Technikfolgenabschätzung. Wer sich an Clickworker/Textbroker-Aufträge der Art „100 mal 500-800 Wörter über Gewinnspiele bitte“ erinnert, wird Potentiale ahnen. Dass wir in absehbarer Zeit Strategien zum Umgang mit LLM-Fluten an der Uni, in Onlineshop-Artikelbeschreibungen, in der Sportberichterstattung, in Social Media, generell im Web oder auf Wikipedia, whatever brauchen: Ja. Sehr entschieden Ja, aber das zeigt nur, dass die Technik per se natürlich hoch anschlussfähig ist. Was uns aber direkt zur folgenden Problemstellung führt, zu
LLMs/AI und Wissensorganisation bzw. -aufbereitung
Es besteht meiner Ansicht nach Einigkeit darüber, dass LLM-generierte Texte nicht verlässlich sind. Man mag sich streiten, ob das nicht für alle Texte gilt, aber allein der Aspekt der Zuschreibe- und Überprüfbarkeit sticht hier meiner Ansicht nach. Das macht meiner Ansicht nach auch die Tragik der ganzen Geschichte aus: man hat ein Tool, das insbesondere „fürs Kreative“ taugt und gerade bei den mühsamen Jobs tendenziell versagt. Weiterlesen