
Chaosradio Lästige KI-Crawler ignorieren große Nein-Schilder
Jan 12, 2026
Leah (Leiterin Infrastruktur bei Uberspace, Mit‑Admin von chaos.social) und Jonas (langjähriger Webhoster bei Uberspace) reden über lästige KI‑Crawler. Sie erklären, wie Crawler arbeiten und warum sie Hosting‑Infrastruktur belasten. Es geht um robots.txt‑Limits, IP‑Blocking, Proof‑of‑Work und wirtschaftliche wie rechtliche Folgen.
AI Snips
Chapters
Transcript
Episode notes
Kontinuierliche Filterpflege Gegen KI-Crawler
- Hoster müssen dynamisch filtern und reagieren, etwa User-Agent- und IP-Listen pflegen.
- Jonas erklärt: Bei Uberspace setzen sie 'stille Bänke' und passen Sperrlisten wöchentlich bis monatlich an.
Massive IP-Vielfalt Ermöglicht Umgehung Von Sperren
- Angreifer verteilen Anfragen über sehr viele IPs zur Umgehung von Sperren.
- Leah nennt ByteDance-Beispiel: 20.000 IPs aus Cloud-VMs, jede macht wenige Requests, was IP-Blocken wirkungslos macht.
Datenvergiften Taugt Nicht Als Nachhaltige Verteidigung
- Giftige Inhalte absichtlich bereitstellen ist moralisch fragwürdig und ressourcenintensiv; vermeide diese Taktik.
- Jonas: Kauderwelsch-Labyrinthe belasten Crawler, erzeugen aber trotzdem Last und verschwenden Energie.

