Googles 100 Suchergebnisse: über Bande die KI sabotieren

Ich beobachte ja mit einer gewissen Mischung zwischen Faszination und Abscheu, wie die KI-Blase grade nicht nur sich selber, sondern alles mehr oder weniger vernetztes mit in die Spirale wachsender Beschissenheit zieht, und letzten Monat wars einmal mehr ein SEO-Thema, bei dem ich mich frage, wieder kaum wer, der/die da nen Elefanten im Raum adressiert? Es gab ne Zeit, in der Google per einfach angehangenem num=100 an die Suchergebnis-URL statt der üblichen 10 deren 100 URLs bei der Suche auswarf. Das wurde nun eher abrupt abgedreht, und man kann sich fragen, warum (wegen KI-Scrapern) und was man dafür inzwischen im Hause G. in Kauf zu nehmen bereit ist (alle sind sauer).

Normale Menschen werden eher selten ein „num=100“ an die Such-Url anhängen, es klickt ja schon keiner mehr auf Platz drei, von Seite zwei ganz zu schweigen. Nun nutzen aber eine ganze Latte Tools die Hunderter-SERP-Ansicht, weil sie da eben direkt mit einem Abruf die ersten zehn Seiten Google-Suchergebnisse für Keyword-Anfrage X auswerten können. Wenn Sistrix da ein paar Millionen Suchanfragen in x Ländern mehr oder weniger tagesaktuell misst, kommt ganz schön was zusammen. Dasselbe machen Searchmetrics, Semrush und noch ein paar Anbieter, man kann sie sich indessen einigermaßen abzählen. Vor allem machen sie es bereits seit Ewigkeiten, ein Problem wars wohl nie so recht, vor allem sind die Nutzer genau die Akteure, die über andere Kanäle (Google Ads) sehr viel Geld bei Google liegen lassen. Konkret: die nach wie vor den Löwenanteil von Googles Umsatz reißen.

Die kann man sauer machen, weil sie von heute auf morgen keine vernünftigen Daten mehr kriegen. OK, die Toolanbieter reagieren, faktisch müssen sie nun eben Faktor 10 mehr Queries absetzen und parsen, um dieselbe Datenquali zu liefern, und wenn man ab Seite 2 nur noch jeden zweiten Tag aktualisiert, wirds den Kunden auch nicht wirklich wehtun, aber nun. Kostet Geld und Compute.

Witzig wirds, wenn Google sich die eigenen Statistiken zerschießt. Wer für die eigene Seite eine Search Console eingerichtet hat, wird eine wundersame Verbesserung der eigenen Durchschnittsplatzierungen beobachten können.

Geilste Rankingverbesserung! … ach halt, Messartefakt.

Plötzlich alles im Schnitt eine halbe Seite weiter oben? Mitnichten. Es fehlen einfach X Datenpunkte auf hinteren Seiten. Alle? nein, ich hab immer noch Rankings bis 99. Jüngere Daten haben nichts dreistelliges mehr. Auf mich wirken aktuelle Daten, als ob G. intern auf 100 und extern auf 10 Ergebnisse pro query gegangen wäre, so ganz überzeugt bin ich noch nicht, weil dafür ist der Aufstieg über die Latte Seiten, die ich von hinten sehe, zu kräftig. Whatever. Durchschnittsrankings sind eh ein schmales Brett.

Was das wirklich witzige dabei ist: das ist Step 1 in Sachen „KI-Anbieter versuchen sich gegenseitig, die Qualität zu zerschießen“. Ich linke ungern auf SEO Südwest, weil man dort eher selten über die eigene Tischkante rausdenktbloggt, aber to prove a point: Dort stellt man fest, dass die Citations in ChatGPTs KI-Antworten um, hihi, 90% abnehmen, möglicherweise Kosten gespart werden sollen und das eventuell zufällig zusammenfällt mit Googles Abdrehen seiner SERP-Pipeline. Himmel, natürlich hängts da dran und natürlich hat Google keinen Bock drauf, dass die ChatGPT-Antworten auf massig ergooglete Quellen zurückgreifen können, um nachträglich zu prüfen, ob ihr generierter Slop vollkommener Schwachsinn ist oder ob sich doch vielleicht Links finden lassen, die wie eine passende Quelle aussehen könnten.* Kurz: Google will, dass ChatGPT schlechter wird, und deswegen drehen sie ein Feature ab, das ihren zahlenden Kunden jahrelang gute Dienste geleistet hat, weil fuck you.

aua

aua.

Aber Ruppsel, vielleicht ists nur wegen dem Bottraffic? Spart da Google nicht auch einfach Bandbreite? Jannun, in der Tat fluten die KI-Bots die Leitungen und die Server mit Anfragen, als obs keine Menschen gäbe, die die ganze Scheiße im Netz auch lesen wollen. Und ja, ChatGPT hat seinen Traffic im laufenden Jahr je nach Bot schlapp vervier- bzw. verzwanzigfacht, Perplexity knapp Faktor 3 (ich meine, Perplexity hab ich hier als einzigen irgendwann ausgesperrt, weil der …vergessts wieder, es war Claude, der hat sogar Anteile verloren, aber auf der korrupt.biz machte er gefühlt 95% Traffic), es ist zum Kotzen, aber Google? Crawltechnisch nach wie vor absoluter Platzhirsch und 2025 schlappe 97% mehr Crawling als im Vorjahr. Google hat Bandbreite wie Dreck, und die num=100-Queries sind mal eben in den Atlantik gepisst, aber sie drehen sie ab, damit der Wettbewerb schlechtere Daten kriegt.

Wir sind da btw. am Anfang, das eskaliert grade erst. Wenn Tollbit schreibt, der Menschenanteil auf Webseiten sinkt und der Botanteil steigt, kann ich dass unterschreiben. Das beobachtete „1 Bot auf 50 Menschen“ ist indessen mit Sicherheit weit untertrieben, weil ihre Kunden aus Hightraffic-Seiten bestehen und der Botanteil exponentiell steigt, je kleiner die Site. Dass AI-Bots dazu übergehen, robots.txt zu ignorieren: na klar tun sie das. Google kann ihnen das Grounding abdrehen, aber dass irgend ein Wald- und Wiesen-Webmaster alle Botkennungen händisch geblockt kriegt, ist ein frommer Wunsch und die kann man ja mit Queries zunageln, weil scheiß auf die, Hauptsache Quellenangabe für meinen Slop.

Auf der anderen Seite: wenn sich Google und OpenAI gegenseitig auf die Fresse schlagen, gibts ja nur Gewinner. Nur einmal mehr: dass aus meiner Branche da kein Mensch die Fresse aufkriegt und mal Dinge beim Namen nennt, ich verstehs einmal mehr nicht wirklich. Alles hidden in plain sight, aber wahrscheinlich machts sich halt schlecht bei den Geldgebern, wenn man auf ein, zwei KI-Nebenwidersprüche deutet und fragt, ob das eigentlich so muss. Whatever.

*Spannend wird ja die Frage, ob die Qualität des Outputs bei ChatGPT deswegen sinkt. Ich bin einigermaßen sicher: nein, überhaupt nicht. Denn die „Quellen“, die ChatGPT neben seinen Text malt, haben mit dem generierten Inhalt nichts zu tun. ChatGPT generiert Inhalte und schaut *hinterher*, was wie eine Quelle aussehen könnte. Das geht jetzt nicht mehr, weil Google den Hahn zudrehte. ChatGPT generiert nun wie gehabt weiter, kann zwar nicht mehr vortäuschen, man habe dafür auf aktuelle Webseiten zurückgegriffen, aber das tat es eh nie, insofern Arschlecken.

Kategorie: Allgemein Tags: , , , , . Permalink.

2 Responses to Googles 100 Suchergebnisse: über Bande die KI sabotieren

  1. Yuri sagt:

    Hallo, bitte mehr Absätze in den Text einbauen. Das erleichtert das Lesen ungemein.

    Vielen Dank.

  2. Patrick Jobst sagt:

    An Spekulationen will ich mich nicht beteiligen. Auf LinkedIn erlebe ich mit, dass derzeit alle Branchenbegleiter da ein wenig die Nerven verlieren. Ich schlage sinngemäß vor, sich das in Ruhe bei Popcorn anzusehen.

    ClaudeBot hat vor allem die aufdringliche Art, sich an keinerlei Crawlingdelays zu halten. Damit kann er jene leicht abschießen, die in einem schlechten Hosting wohnen.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert