Man muss mich eigentlich nicht zwingen, ich mach das eigentlich immer nach guten Veranstaltungen, schon allein, um für mich nochmal in Ruhe zu behirnen, was ich so neues erfahren und kollektiv mitgedacht habe. Die koks.digital ist die Online-Marketingkonferenz im Ruhrgebiet, und bisher hatte ich auf jeder viel zu denken. That said, erstaunt es mich eigentlich, dass die Konferenz-Recaps irgendwie ein wenig aus der Mode gekommen scheinen. Die Branche ist auf Social und Linkedin unterwegs, und da mag mans wohl knackig und nicht elaboriert, aber ich kanns weiterempfehlen, schon alleine für den eigenen Kopf. Wer weiß, vielleicht gibt’s in Zukunft mehr als die drei Recaps, die Stefan im letzten koks-digital-NL anteaserte. Ich dachte, verlegener als durch ein „erstgelistete Site!“ könnte ich nicht mehr werden auf der fünften koks.digital, der Onlinemarketingmesse im Pott, aber doch, das geht, ich komm dazu.
Ansonsten einmal mehr ein grundsätzliches „Zum Glück gibt’s die koks, man müsste sie sonst erfinden“. Sie ist enorm vielfältig, die Vorträge auf klasse Niveau, und die Veranstaltung bleibt trotzdem noch in einer Größenordnung und einer Gesamtstimmung, in der vieles einfach mal in Klartext und aus dem Nähkästchen diskutiert, fallbesprochen und ausgetauscht werden kann. Da reden Leute über ihre konkreten Doings und Learnings und eben nicht nur die Erfolgsgeschichten, sondern eben auch drüber, was falsch und schief und schlecht laufen kann, und man lernt ne Menge. Darauf ein herzhaftes „Stefan ist schuld“, das war das erste Statement zur Eröffnung auf der Bühne, und es bezog sich auf ein wenig Chaos beim Einlass und verspätetem Start. Ich erweitere hiermit auf die Gesamtveranstaltung und meine das als Kompliment.
(Wobei: kein Wlan! Ich weiß, 5G, und man soll zuhören, diskutieren und nicht rumsurfen, und überhaupt jammere ich auf hohem Niveau. Zur Sache.)
Patrick Pape, von Morefire eröffnete mit B2B Marketing. War bei mir eher ein „ach, guck mal an“, weil wir im Grunde ja auch B2B-Marketing machen. Einer dieser beruhigenden Einstiege bei einschlägigen Veranstaltungen: ich will eigentlich so zu 70, 80% der Statements/Ideen, die ich höre, einen „kenn ich/richtig/machen wir“-Haken setzen, weil sonst habe ich zu lang unter nem Stein geschlafen. Starke These: Bezahlte Lead-Generation ist fürn Arsch. Ich neige zum „Alles andere ist besser und erstrebenswerter, ja“. Patrick berichtete ganz direkt von ihrer Strategie, und so ein paar Aspekte schienen mir problembasiert gelernt: sie rechnen nicht mehr mit Cost per Leads, sondern Cost per Sales Accepted Lead. Günstige Leads konvertieren oft scheiße und sind im Endeffekt teurer. Leads, wo Sales sagt „Oh, hoppla“, da spielt die Musik. Überhaupt Sales; 75% der B2B-Kunden will keine Salesmenschen mehr (ich versteh das! sehr!). Ergo: viel Informationsangebote machen und Leute auf sich zukommen lassen. Bestandskunden ausbauen – einfach mal schauen, wenn SEO-Kunde X auf einmal drei Whitepaper zum Thema Social runterlädt.
Was tut man dann? Ich hätte aus dem Stand gesagt, man sollte seine Kunden so gut kennen, dass man in der Lage ist, sie zielführend und hilfreich drauf anzusprechen. Wenn nicht, hat man ein Problem. Wir haben aber 2025: selbstverständlich sagt man der KI, was der Kunde anschaute, wirft ein wenig Hintergrundinfo hinterher und lässt sich eine Mail schreiben. Beim zweiten Mal drüberdenken: es tut der eigenen Betriebsblindheit wahrscheinlich durchaus gut, wenn man da gelegentlich tatsächlich mal eine Persona, das recherchierte Thema und die aktuellen Leistungen reinwirft und fragt, was man hier raten bzw. anbieten könnte.
Tja, und dann kam Roman Broich, AI-Experte von Microsoft Deutschland, der letztes Jahr schon da war und mich schwer beeindruckte. Ich saß nichtsahnend da und die Anmoderation begann sinngemäß mit „Ich würde jetzt Roman Broich vorstellen, aber ich las was in einem Blog namens korrupt.biz was zu seinem letzten Vortrag und will lieber das vorlesen“, gefolgt von meinem Statement, ich sei nur in den Talk gegangen, um KI im Allgemeinen und Microsoft im Besonderen begründeter zum Kotzen finden zu können. Anschließend sei ich jedoch positiv überrascht worden usw. Ich sag mal so, mit der Ansage, MS zum Kotzen zu finden, zum Anmoderieren eines MS-KI-Experten zitiert zu werden: es fühlt sich schon ein wenig wie eines dieser unwahrscheinlicheren Achievements an, von denen man im Vorfeld sagen würde, sie seien ja wohl unfair und nicht realistisch zu schaffen.
Nun, das mit dem Beeindrucken schaffte er einmal mehr. Letztes Jahr noch alles Theorie, dieses mal all in und eine komplette Live-Demonstration ohne Vorarbeiten, wie mit diversen KI-Agenten eine vergleichsweise komplexe Rechercheaufgabe erledigt wurde. Aufgehängt an einem von Stefans „Weine vor Freude“-Projekten: Winzer unter 30, die ihr eigenes Weingut auf Instagram vermarkten. Finden, aggregieren, Social-Daten auswerten. Einmal mehr; dafür wurde dann keine einzelne LLM/KI verwendet, sondern eben die passenden Agenten aus dem Azure-Pool. Der eigentliche Rechercheprompt ließ er sich von einem Prompt-Agenten ausformulieren, weil die das präziser können. Der Recherche-Agent war dann interessanterweise kein Azure, sondern tatsächlich ein OpenAI DeepResearch. Der stellte die Weingüter zusammen und checkte ab, ob entsprechende Daten der Eigner das „unter 30“ hergaben und suchte die Insta-Channels dazu. Insta ist nun aber nicht LLM/agentenoptimiert und der Bot kriegte die Channeldaten nicht. Deswegen schrieb er sich ein Python-Script, um die Daten rauszuparsen. Das funktionierte meiner Wahrnehmung nach nicht bzw. hakelte ziemlich, aber hier sind wir schon erstaunlich weit draußen, weiter fand ich den Gedanken interessant, dass es bei „Vibe-Coding“ dieser Art nicht um die (mMn. sehr sehr zurecht problematisierte) Erstellung von Produktivcode (bzw. technical debt mit Anlauf) ging, sondern quasi Wegwerfcode, den man wirklich nur für einen spezifischen Task nutzt, anschließend nie wieder braucht, geschweige denn nochmal ansehen muss.
Das Ergebnis konnte man sich dann natürlich hübschmachenlassen, einschlägige Anschreiben formulieren und auf deutsch, englisch und mandarin in Echtzeit vorlesen lassen. Ein Ruhrpottdialekt wurde auch getestet, da schmierte das Tool dann ab, was ich für entschuldbar halte.
Drei interessante Statements am Rande:
– limitierender Faktor sei grade die RZ-Kapazität: zu wenig compute. Ich musste grinsen und hätte stattdessen einfach „Geld“ gesagt. Klar, ein paar hundert Megawatt Rechenzentrums-Kapazität baut sich nicht über Nacht, aber Microsoft wirft die Milliarden grade auch nicht in dem Maß in die Venturekapitalverbrennung, wie es beispielsweise OpenAI gerne hätte (bzw. bräuchte).
– Das andere: es war mehrfach von den Jobs die Rede, die sonst halt von Juniors bzw. Praktikanten erledigt worden wären. Der Punkt zieht sich durch, ebenso die Frage, anhand wovon heute Juniors und Praktikanten was on the Job lernen sollten (im Sinne von „man versteht, was man tut, warum, wie und mit welchen Limitierungen, Möglichkeiten und Effekten“). Whatever, ich bin ein alter, zynischer weißer Mann.
– Zuletzt: das Kontextproblem scheint weiter ungelöst, die Agenten verlieren den über die Zeit, Tasks daher gegebenenfalls neu starten. Ich bleibe weiterhin skeptisch was das „in $nähere_zukunft kann KI noch viel viel mehr und besser“ angeht, ich ahne da nichttriviale Probleme. Die große Stärke bei MS sehe ich grade vor allem im Finden und gezielten Adressieren spezifischer Usecases, wo die existierende Tech sinnvoll/hilfreich angewendet werden kann.
Die goldene Agentenzukunft scheint mir indessen auch noch mit ein paar lästigen Problemstellungen behaftet. Klar, es ist schon cool, wenn man einen Agenten was recherchieren lässt, der eine VM mit nem Browser startet, Webseiten aufruft und Cookiebanner (akzeptierend, hihi) wegklickt. Was will ich einen Agenten auf meinem Rechner, mit meinem Browser, in meinem Namen alles klicken lassen? Was soll er tun und welche Rechte braucht er dazu? Worauf greift er zu und wo wird das verarbeitet? Es bleibt alles spannend. Update: Ach, Google schafft Fakten. Man macht den Gemini-Zugriff auf Android-Handydaten einfach per default on.
Den Vortrag zu PR vom kleinen, sympathischen Startup Sperling Bags hatte ich mir tatsächlich wegen allgemeinem „was geht heute eigentlich in Sachen PR?“ und meinen blinden Flecken diesbezüglich zur Horizonterweiterung ausgeguckt. Beim Eingangsstatement, man arbeite wirtschaftsgetrieben, strebe dabei aber positiven gesellschaftlichen Impact an, machte mich grinsen, das kenn ich gut. Ein „TV macht nicht automatisch reich“ klang wiederum erwartet, und viel von der folgenden Fallgeschichte war für mich tatsächlich nicht recht verwertbar, wenngleich interessant und sympathisch. Vor allem spannend: die Sachen, die nicht (oder anders als erwartet) funktionierten. Eine Aktion wurde mit dem Ziel gefahren, quasi „organische“ Presseberichterstattung zu kriegen. Funktionierte, hatte aber null Effekt, weil die Message zu sehr über Bande ging. Eine Zweiteiler-Doku diffundierte wild zwischen Unternehmerdoku und einem „wir wollen auch unterhalten, und dafür brauchts Konflikte und Zoff“-Ding. Dass man vor einem Sendetermin ggf. nach dem Loadbalancing/dem CDN guckt, ist ein Nobrainer, dass man besser auch die Brandkampagnen abstellt, leuchtete mir danach unmittelbar ein, mir wärs aber auch nicht eingefallen. Effekt: Tatsächlich ein Umsatzpeak, aber hohe Begleitkosten, weil sehr viele Leute einfach nur interessehalber das Unternehmen googelten und auf die Ad statt dem organischen Ergebnis klickten. Zweiter anschließender Dämpfer: TV-Spontanshopper haben eine sehr hohe Rückgabequote und sind eine Käufergruppe, die man sich vielleicht gar nicht eintreten will. Spannende Gegenüberstellung von Kosten, Ertrag und Reichweiten, die man auf anderen Kanälen mit dem gleichen Aufwand hätte klarmachen können.
Fazit: PR kann oder muss in den Marketingmix, wenns über Brandbuilding rausgeht, gibts mehr Nebeneffekte/Kanalbesonderheiten, als zumindest ich sie aus dem Stand auf dem Schirm gehabt hätte. Erhellend, sympathisch, ich wünsche weiter gute Kunden.
Rene Dhemant las ich schon zu seiner Zeit bei Sistrix gerne und dass er regelmäßig bei der Koks aufschlägt, schätze ich sehr, heller Kopf, klare Positionen und immer sehr Hands-On. Wenn er was zu „SEO für KI“ vorträgt, will ich das entsprechend wissen. Nun sagte ich eingangs, dass ich beim Vortraghören meine 70% „kenn ich, mach ich“ durchaus wertschätze. Hier passierte auch was in der Art, aber oh boy, unerwartet. Denn nach ersten allgemeineren/bekannten Ansagen zu KI-verwertbaren/zitierbaren Inhalten kam das Fazit, man wolle eine RAG-Quelle sein und die Lösung dafür ist Entity SEO. Man muss in den Knowledge Graph.
Weil Gemini arbeitet mit dem Google Knowledge Graphen. Ich kenn jetzt seine Quelle nicht, bin aber seit 2023 der Ansicht, genau das muss Google auch tun und konnte damals nie so recht verstehen, warum im aufkommenden LLM-Hype gefühlt niemand über KGs redete. Google redete demnach wenig drüber und machte indessen. Was mich zum zweiten denkwürdigen Moment bei Rene brachte: klare Ansage „Vergesst ChatGPT, Gemini ist es“.
Googles Gemini sei laut Rene die mit Abstand bessere Technik, basiere a) auf KGs, b) einem Scraping, das Webseiten rendern und verstehen könne und habe c) die beste Indexierung/Quellenlage überhaupt. Wenn man für LLM optimiert: Fokus auf Gemini, weil wird sich gegen ChatGPT lässig durchsetzen.
Das ist eine These, die mir vollkommen einleuchtet, wenngleich ich aus der Hüfte gesagt hätte, das passiert, weil Google und MS Gelddruckmaschinen und OpenAI halt einen Arsch voll teurer Kredite und keinen Revenue hat. Damit ist vollkommen klar, wer die Kapitalverbrennung länger durchhält. Dass OpenAI pleitegeht oder gekauft wird, scheint mir weniger ein Ob als ein Wann. Dass aber nun ein durchaus strategischer Berater wie Rene ohne Not eine so klare Ansage in Bezug auf die Technik und die Qualität des aktuell verbreitetsten Players am Markt macht: Mir gabs zu denken. Klar, ein Stückweit auch, weil man das selber dachte und insofern auch gerne hört, aber hey. Für mich der erfreulichste Slot der Veranstaltung. Bonus: erstmals eine vernünftige Antwort auf meine seit einiger Zeit in verschiedenen Kontexten immer gestellte Frage, was alle eigentlich auf das schmale Brett bringe, Structured data/JSON-LD sei the way to win bei der LLM-Optimierung, schließlich konnte mir bisher noch niemand eine Statistik über Menge und Qualität der strukturierten Daten in Top- vs- Flop-gequoteten KI/RAG-Quellen zeigen. Bisher immer verdruckstes „Aber das können Maschinen gut lesen, und KI ist doch ne Maschine“. Persönlich glaube ich, KI-Scraper fressen alles, was direkt sichtbares html und nicht bei drei auf dem Baum ist.
Renes These: das wurde an sich nur von Google gepusht, damit sie ihren Knowledge Graphen füllen und ausbauen können. Dass man damit besser ranken würde, sei allenfalls vorgeschoben. Das passt ironischerweise zu Googles letzten Abkündigungen von JSON-LD-Formaten. Das sind einerseits meist nicht sehr „KG-nahe“ Formate, die sie einstampfen, und es steht immer ein „Diese Änderung hat keine Auswirkungen auf das Ranking von Seiten.“ dabei. Letzteres sollte einem zu denken geben, wenn man vorher der Ansicht war, mit entsprechenden Structured Data-Elementen hätte man bis dahin besser gerankt. Whatever.
Eigentlich war ich dann bei Sascha Pallenberg, aber den setze ich aus Gründen ans Ende. Mein letzter Slot war Sebastian Schnelting zu ki-induzierten Veränderungen in der Customer Journey. Einmal der Saustall, der aus einer einstmals einigermaßen linearen Customer Journey wurde. Er findet vier Verhaltensmuster, die einer Conversion typischerweise vorausgehen: Streaming, Scrolling, Searching, Shopping. Interessante Gedanken, wie man da jeweils vorkommen will. Weiter viel zu „Know your Customer“ und KI-Methoden zum besseren Verständnis. Was gibt es an Marktdaten, Kundenstimmen, Feedback, Sentinent-Analysen, Zielgruppendaten etc. was man bislang nie wirklich breit analysieren konnte und man jetzt in eine KI werfen und rumrühren kann? Sollte man mal den billigen Reviewscraper losrennen lassen und schauen, wo vielleicht noch ein paar Bewertungen jenseits von Google und Trustedshops rumliegen? Witzigerweise stieß ich live im Talk beim gegenchecken auf eine mir völlig unbekannte Bewertungsquelle für uns und erkannte Handlungsbedarf, das spricht wohl dafür.
In einer sehr chilligen, kurzen Abschlussrunde wurden noch die bestbewertetsten Talks mit Bier geehrt. Sascha (ich komm drauf) leider nur Platz drei, aber hey. Fachlich top, bestes Orgateam, stimmungstechnisch fein, 12/10 gerne wieder, Stefan, hau rein nächstes Jahr.
Zum Schluss aber zu Sascha Pallenberg. Als ich las, dass er kommt, dachte ich erst „Whoa, wie geil“ und dann „Oh, erstaunlich“. Seit einer zweistelligen Zahl von Jahren rege ich mich gelegentlich über die mangelnde gesellschaftliche Verantwortung unserer Branche auf und 2024 erlebte ich erstmals eine explizite Kopfwaschung auf einer Fachkonferenz und zog meinen Hut.
Der Titel „Der Like-Button ist die Wurzel allen Übels“ war Programm, wobei es kaum um selbigen ging, sondern eben die Auswüchse algorithmusgetriebener öffentlicher Plattformen und wie sie unser Bild der Realität bestimmen. Und Sascha ist da durchaus meinungsstark: in Sachen „kommende KI-Müll/Propagandaflut“ hätten wir grade eine Situation wie zwei Wochen vor dem Ukrainekrieg: man sieht, da kommt was und ahnt, die Auswirkungen werden größer sein, als man denkt, selbst wenn man bedenkt, dass die Auswirkungen größer werden als man denkt.
Das Ganze dann aber auch nicht fatalistisch, alarmistisch und/oder kulturpessimistisch geraunt, sondern sehr konkret hinterfüttert mit tagesaktueller Situation beispielsweise in seiner Wahlheimat Taiwan, wo die Tiktokisierung der Öffentlichkeit und ihr Einsatz als chinesisches Propagandatool halt drei Umdrehungen weiter ist. Klarer Aufruf: weg von US-Bigplayern. Absage an manipulative Algos, Appell an die eigene gesellschaftliche Verantwortung. Ich hab hier einmal extremen Respekt fürs Einladen und raushauenlassen. Und angesichts mancher Reaktionen aus dem Publikum ein wenig Bedenken, was das Wissen um Netzkulturen und Plattformdynamiken jenseits der OKR angeht, aber ich werd ja auch langsam ein Dinosaurier.
Ich sag mal bis nächstes Jahr.
One Response to Koks.digital 2025, man zwingt mich zum recappen