Hab schon überall gesucht und keine wirklich Antwort auf meine Frage erhalten:
Warum wird die sitemap.xml im Ordner /share abgelegt und nicht mehr im root?
Hab schon überall gesucht und keine wirklich Antwort auf meine Frage erhalten:
Warum wird die sitemap.xml im Ordner /share abgelegt und nicht mehr im root?
Wieso nicht?
Es macht keinen unterschied wo das liegt. Man kann den Pfad bei Bing Webmaster Tools oder Google Webmaster Tools angeben. Ebenso die XML Datei in der Robots eintragen. Dann finden auch die anderen Suchmaschinen die Sitemap.
Ich glaube der Grund ist, dass es besser aufgeräumt ist.
Geändert von Zero (04.07.2013 um 21:48 Uhr)
Mein Blog -> brothers-project.de
Hallo zusammen
ich bin auch gerade auf die Thematik gestpßen dass die sitemap.xml nicht mehr im root verzeichnis liegt.
Leider verstehe ich auch nicht warum das so ist, denn alle SEO Tool suchen die sitemap.xml standardmäßig im root verzeichnis.
Vielleicht könnten die Entwickler mal dazu stellung nehmen.
Danke
Bin keine Entwicklerin ...;-)
Trotzdem ist es IMHO sinnvoll, die auszulagern und es ganz konkret in die Verantwortung des Webmasters zu stellen, ob und wie Sitemaps von Bots gefunden werden.
Wenn ich eine Sitemap ins Root packe, dann findet Bots die auch - allerdings nur, wenn sie sitemap.xml heißt. Schon an der Stelle gibt Contao die Möglichkeit zur anderen Benennung, und schon in diesem Fall klappt das nicht mehr.
Bei mehreren Sitemaps (beispielsweise aufgrund mehrerer Seitenbäumen) fängt es dann an, etwas wuselig zu werden, wenn ich eine sitemap-de.xml, sitemap-en.xml, sitemap-xx.xml habe. Die können dann gern im Root liegen, die Bots werden sie trotzdem nicht finden. Oder, schlimmer der Fall, wenn ich eine sitemap.xml habe und dann noch weitere mit Seitenbäumen-Suffix. Dann findet der Bot nämlich genau nur die eine Sitemap, ist happy und stellt weiteres probieren ein. Mit der Konsequenz dass andere Seitenbäumen außer dem ersten für Suchbots entweder keine Sitemap oder eine fehlerhafte besitzen.
Also ist es keine Lösung, das Rootverzeichnis damit vollzustopfen, und dann können die Dateien auch woanders liegen. Allerdings ist es dann in der Verantwortung des Webmasters, den Suchmaschinen klar zu machen, was sie finden sollen und wo es sich befindet. Mittel dazu gibt es ja beispielsweise mit der ROBOTS.txt.
Soweit ich weiß gab es da mal ein Ticket, in dem eine automatische Befüllung der Robots gewünscht wurde. Da bin ich allerdings der Meinung, dass man diese Datei nicht automatisch abhandeln sollte (und Leo Feyer hat das ähnlich gesehen), weil das ggf. mehr Ärger bringt als es verhindert. Siehe https://github.com/contao/core/issues/5014
Contao in Kiel: kikmedia webdevelopment | Contao-Partnerin | Contao Usergroup Kiel | github | Contao-Community-Alliance | MetaModels-Team
Hallo lucina
danke für das feedback.
Aus dieser Sicht gesehen macht das ganze wohl Sinn...
Aktive Benutzer in diesem Thema: 1 (Registrierte Benutzer: 0, Gäste: 1)
Lesezeichen