Wir haben radikal aufgeräumt: Alle Filter-URLs mit canonicals auf die Hauptkategorie, Pagination mit rel=next/prev (ja, auch wenn Google das offiziell nicht mehr nutzt), Session-IDs komplett entfernt und in der robots.txt Parameter wie „?sort=" und „?filter=" blockiert.
Dann haben wir die XML-Sitemap gestrafft – nur noch URLs, die wirklich ranken sollen. Von 8.000 auf 1.200 Einträge. Und wir haben die Crawl-Frequenz über Search Console angepasst.
Das Ergebnis nach fünf Wochen: Crawl-Requests sanken auf 1.800 täglich, aber die Indexierungsrate für neue wichtige Inhalte stieg von 4 Tagen auf unter 24 Stunden. Rankings für Hauptkategorien verbesserten sich durchschnittlich um 3 Positionen.
Der Trick war, Google nicht mit irrelevantem Zeug abzulenken. Simpel, aber effektiv.