KI verblödet meine SEO-Branche

Ende 2023 stand ich fassungslos vor SEO-„Kollegen“, die ernsthaft die Meinung vertraten, dass eine Google-KI ihnen direkt aus dem Nähkästchen erklärt, wie sie funktioniert. Es war 2023, die LLMs waren für uns alle Neuland!, und nun haben wir 2025, und es ist noch genau dieselbe Idiotie, und ich versteh die Welt nicht mehr. Nebenan bei Wix interviewte man ein paar Experten, und was soll ich sagen, einiges las sich tatsächlich wie von Menschen geschrieben und mehr als einmal hatte man das Gefühl, es sei auch ein gewisses Denken im Vorfeld vorhanden gewesen. Aber.

Um mein Hirn zu erklären, brauch ich nur in meinen Kopf zu gucken.

Um mein Hirn zu erklären, brauch ich nur in meinen Kopf zu gucken.

Wir haben 2025, und ein Zack Notes erklärt, das LLMs einem „erklären, warum sie Brands so ranken, wie sie sie ranken“, man sie überhaupt nach ihren Rankingmotiven fragen könne und dadurch die „Black Box“ der Suche aufbrechen könne. Und ich erkläre, dass man beim Lesen dieser Sätze physisch fühlen kann, wie sich Gehirnzellen aus purer Verzweiflung mit ihren Synapsen erdrosseln. ALTER! Das LLM erklärt dir exakt gar nichts über seine Rankingmotive. Es nimmt sich alles, was irgendwelche Idioten wie du je ins Netz geschrieben hat zum Thema „was könnten Rankingkriterien für LLMs sein?“, rührt dreimal rum, löscht die Fußnoten weg und würfelt eine Grammatik dazu aus. Das hat mit den tatsächlichen Prozessen soviel zu tun wie drei Pfund Konfetti mit der Farbenlehre.

Im Übrigen sagt selbst JohnMu himself, dass man wegen KI nichts extra tun braucht. Zugegeben, John „build great content“ Mu sagt das nur, weil grade eh alles gewürfelt wird, was die Google-AI rauswirft (can confirm). Aber hey, eine schöne Spinnerei, bei der man gern mitspinnen will. Weiß Gemini vielleicht sogar, wie die Zitier- und Rankingmechanismen vom Wettbewerber ChatGPT funktionieren, oder kann es sich nur ins eigene Hirn gucken?

Google kann auch Altman ins Hirn gucken (hint: schlechte Aussicht)

Google kann auch Altman ins Hirn gucken (hint: schlechte Aussicht)

Tatsächlich, Gemini weiß, wie ChatGPT funktioniert. Gemini findet da sogar den chinesischen Geheimcode, der dort wahrscheinlich von DeepSeek geklaut wurde, ey, China, verklag mal Altman, Gemini sagt, sein stochastischer Papagei denkt chinesisch, das ist doch todsicher Industriespionage.

Mal wieder: dass sich irgendwelche Blitzbirnen auf der Suche nach AGI um Kopf und Kragen reden, weil sie mangels eigener Intelligenz überall die künstliche suchen, geschenkt. Dass man in meiner Branche drauf reinfällt und den Scheiß widerkäut, obwohl man seit Jahrzehnten die Algospielchen spielt und wissen sollte, wie Marketing-Phraseologie funktioniert… ich sollte es besser wissen und bin nicht mal mehr enttäuscht, aber irgendwas anderes, und es fühlt sich schlecht an. Und ja, einer von mehreren, der halt Stuß labert, aber himmelherrgott, warum lacht den niemand aus? Warum kriegen solche Leute Jobs? Wer hält denen ein Mikro hin und warum?

Immerhin, ein schönes, wahres Wort zum Thema generiert Gemini tatsächlich noch, was die Kernfunktionalität von LLMs angeht:

Ia, wir klauen nur euer bestes  Zeug, aber deswegen zitieren? Linken? HAHA!

Ia, wir klauen nur euer bestes Zeug, aber deswegen zitieren? Linken? HAHA!

Immer schön super Inhalte raushauen. Die werden wir dann möglicherweise verwursten, aber hey, euch dafür zitiern oder linken? Unwahrscheinlich.

Nachtrag: und während für den Pöbel KI-generierte Inhalte als Suchergebnis grade recht sind, werden sie nun als Quelle für Google mit „lowest quality“ kategorisiert. So bewertet Google die KI-Outputs, welche unsere „Experten“ als Fachinformationen zum Thema Suchmaschinentechnologie betrachten. Merkt ihr was?

Tja. Gut genug für uns, indessen.

Tja. Gut genug für uns, indessen.

Quality Rater Guidelines, Seite (hihi) ZWEIUNDVIERZIG.

Kategorie: Allgemein Tags: , , . Permalink.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert