Sitemap wird in der Google Search Engine nicht gefunden
Hi!
Ich stehe vor dem Rätsel, dass nach einem aus meiner Sicht erfolgreichen Update von 3.5 auf 4.13 die sitemap.xml, obwohl im Browser über https://www.domain.com/sitemap.xml aufrufbar, nach Eintrag in der Google Search Engine nicht gefunden wird.
Der Hinweis lautet: Sitemap konnte nicht gelesen werden, Allgemeiner HTTP-Fehler
Ein Blockierung durch eine robots.txt (die es nicht gibt /geben sollte) konnte ich nicht finden.
Der Vorschlag von Google mit dem URL-Prüfungstool zu arbeiten bringt nach einiger Suche den Hinweis, dass die verweisende Seite der Startseite ganz woanders hin zeigt (auf eine andere Domain)
Es wird also offenbar immer weniger ein Contao-Problem, je mehr ich nach der Ursache suche, aber vielleicht kennt jemand das Problem und hat eine Lösung dafür.
Noch ein Hinweis: die Seite war vorhin bei mir inder Search Console eingetragen, möglicherweise also bestand das problem schon früher, das kann ich aber nicht mehr nachvollziehen.
Liste der Anhänge anzeigen (Anzahl: 4)
also:
Anhang 26153
zeigt die eingereichte Sitemap
klickt man darauf wird dies angezeigt:
Anhang 26152
und jetzt wirds spannend:
Suche ich bei Google nach "Allgemeiner HTTP-Fehler" wird mir die Verwendung der Live-URL-Prüfung empfohlen:
Mach ich dies für die Startseite https://www.hausaerztinnen.at/ kommt dieses Ergebnis:
Anhang 26151
alle anderen Seite bringen kein Ergebnis:
Anhang 26154
Es gab in den letzen Jahren aber keinen Verweis auf eine andere Seite, die Website war immer abrufbar und wird ja auch bei Google gefunden.
https://www.google.com/search?client...saerztinnen.at
Liste der Anhänge anzeigen (Anzahl: 3)
Auch hier kein Erfolg:
Anhang 26155
Beantrage ich die Indexierung kommt dies:
Anhang 26156
Der angebotene Live-test hat dieses Ergebnis:
Anhang 26157
Warum hier angezeigt wird, das robots.txt-Dateien den Aufruf blockieren, kann ich nicht nachvollziehen.
Mir war gar nicht bewusst, dass es die robots-Datei überhaupt gibt: https://www.hausaerztinnen.at/robots.txt, ich dachte, die wurde von Contao inzwischen enfernt.
Im Web-Verzeichnis finde ich diese auch nicht (FTP), aber egal, das angezeigte Ergebnis zeigt nichts Verdächtiges aus meiner Sicht.
Liste der Anhänge anzeigen (Anzahl: 1)
Du musst die Sitemap nicht indexieren sondern im eigenen Bereich dafür "anmelden/einreichen" (Siehe Anhang). Eine Sitemap gehört nicht in den Index.
Liste der Anhänge anzeigen (Anzahl: 1)
Das habe ich natürlich gemacht, ist ja nicht meine erste Installation:
Anhang 26161
(ok, einmal habe ich mich vertippt ...)
Bis jetzt hat es ja auch immer geklappt und die Sitemap wird ja im Browser korrekt aufgerufen.
Die Frage ist, warum Google dies nicht so sieht.
Liste der Anhänge anzeigen (Anzahl: 1)
Hast du im Startpunkt Anweisungen zur robots.txt?
Edit:
Also mit einem externen robots.txt Prüfer sehe ich weder in der Domain noch direkt auf die XML eine Einschränkung...hmmmm
Liste der Anhänge anzeigen (Anzahl: 1)
allerdings, es bleibt spannend:
Habe jetzt einen Link gefunden, die robots.txt zu testen:
https://support.google.com/webmaster.../6062598?hl=de
Hier kommt für meine Seite folgendes Ergebnis!
Anhang 26163
Offensichtlich wird hier ein alte Datei von gestern gefunden, die Seite habe ich gestern Nachmittag umgestellt.
Die aktuelle passt ja inzwischen.
Ich habe jetzt mal Google um Aktualisierung gebeten, mal schauen.
An dieser Stelle aber aus Interesse die Frage, wie Contao diese robots.txt erstellt, die am Server an dieser Stelle (im Seitenroot) ja gar nicht angezeit wird?