Hi,
danke für deine Antwort.
Soweit ich weiß (dachte), arbeitet die robots nach dem Prinzip, was zuerst steht, zählt. Deswegen sind erstmal paar Bereiche
blockiert, die nicht gecrawled werden sollen und dann Fall-Back: alles andere erlauben.
Der Eintrag 'Allow: /' ist von Anfang an drin, ich mach den mal raus und baue das original wieder rein, dann berichte ich wieder.
htaccess ist drin:
Code:
<IfModule !mod_authz_core.c>
Order allow,deny
Allow from all
</IfModule>
<IfModule mod_authz_core.c>
Require all granted
</IfModule>
VG
Lesezeichen