Hi,
kann man eine komplette Webseite für Robots über das Backend mit einem Klick sperren, oder geht das nur über eine robots.txt?
Hi,
kann man eine komplette Webseite für Robots über das Backend mit einem Klick sperren, oder geht das nur über eine robots.txt?
Ich würde sagen, es geht beides nicht. Die robots.txt ist nur ein freundlicher Hinweis an die Robots und sperrt sie nicht wirklich aus. Nicht alle halten sich an die freundliche Bitte, die müsste man dann auf andere Weise aussperren (Firewall, .htaccess, ...)
Google hält sich aber dran. Ich mache das einfach mit der robots.txt und gut. Bisher ist da nie was im Index aufgetaucht.
Code:User-agent:* Disallow: /
Thanks, mir ist jetzt die htacces Passwort Lösung eingefallen.
Bei mir ist Google nicht der einzige Bot, da sind zahlreiche Crawler irgendwelcher Firmen unterwegs, die halten sich teilweise freiwillig an gar nichts. Da muss man, wenn man Wert darauf legt, andere Maßnahmen ergreifen. Die Bots der "großen" Suchmaschinen halten sich aber normalerweise an die Vorgaben in der robots.txt.
Aktive Benutzer in diesem Thema: 1 (Registrierte Benutzer: 0, Gäste: 1)
Lesezeichen