Chaosradio

Lästige KI-Crawler ignorieren große Nein-Schilder

Jan 12, 2026
Leah (Leiterin Infrastruktur bei Uberspace, Mit‑Admin von chaos.social) und Jonas (langjähriger Webhoster bei Uberspace) reden über lästige KI‑Crawler. Sie erklären, wie Crawler arbeiten und warum sie Hosting‑Infrastruktur belasten. Es geht um robots.txt‑Limits, IP‑Blocking, Proof‑of‑Work und wirtschaftliche wie rechtliche Folgen.
Ask episode
AI Snips
Chapters
Transcript
Episode notes
ADVICE

Kontinuierliche Filterpflege Gegen KI-Crawler

  • Hoster müssen dynamisch filtern und reagieren, etwa User-Agent- und IP-Listen pflegen.
  • Jonas erklärt: Bei Uberspace setzen sie 'stille Bänke' und passen Sperrlisten wöchentlich bis monatlich an.
INSIGHT

Massive IP-Vielfalt Ermöglicht Umgehung Von Sperren

  • Angreifer verteilen Anfragen über sehr viele IPs zur Umgehung von Sperren.
  • Leah nennt ByteDance-Beispiel: 20.000 IPs aus Cloud-VMs, jede macht wenige Requests, was IP-Blocken wirkungslos macht.
ADVICE

Datenvergiften Taugt Nicht Als Nachhaltige Verteidigung

  • Giftige Inhalte absichtlich bereitstellen ist moralisch fragwürdig und ressourcenintensiv; vermeide diese Taktik.
  • Jonas: Kauderwelsch-Labyrinthe belasten Crawler, erzeugen aber trotzdem Last und verschwenden Energie.
Get the Snipd Podcast app to discover more snips from this episode
Get the app