Ergebnis 1 bis 8 von 8

Thema: Problem mit robots.txt

  1. #1
    Contao-Nutzer
    Registriert seit
    24.06.2009.
    Beiträge
    97

    Standard Problem mit robots.txt

    Hallo Leute,

    ich habe anscheinend immer die eigenartigsten Probleme. Entweder ist es TL 2.8.2 oder ein Google-Problem.

    Meine "robots.txt" sieht wie folgt aus:

    User-agent: *
    Disallow: /plugins/
    Disallow: /system/
    Disallow: /templates/
    Disallow: /typolight/
    Disallow: /CHANGELOG.txt
    Disallow: /cron.php
    Disallow: /flash.php
    Disallow: /GPL.txt
    Disallow: /INSTALL.txt
    Disallow: /LGPL.txt

    Aus meiner Sicht vollkommen normal. Der GoogleBot weigert sich die "robots.txt" anzunehmen!
    Mit dem internen Test-Tool von Google habe ich die URLs und die "robots.txt" geprüft.
    Es zeigt mir bei allen Einträgen "zugelassen" an, aber quittiert gleichzeitig mit "Syntax wurde nicht verstanden".
    Meine Sitemap hat Google eingelesen und wird mit einem grünen Haken als O.K. gekennzeichnet.

    Im Vergleich zu einer anderen Installation (beide TL 2.8.2) wird die "robots.txt" mit
    -URL durch "robots.txt" eingeschränkt- angezeigt. Das kann aber nicht sein, da beide Installationen die gleiche "robots.txt" haben.

    Ich finde auch in den einschlägigen Foren keinen Hinweis.
    Kann mir bitte jemand einen Tipp geben?

    Vielen Dank im Voraus

    MfG

    BigDaddy

  2. #2
    Contao-Urgestein Avatar von Sebastian
    Registriert seit
    19.06.2009.
    Ort
    Stuttgart
    Beiträge
    3.361

    Standard

    HI

    TL 2.8.2 gibt es eigentlich noch gar nicht. Du verwendest also den Trunk aus dem SVN?

    Was für Zeichenkodierungen haben die Dateien denn? Und hast du die Datei mal mit einem guten Editor angeschaut, vielleicht sind ja Sonderzeichen drinnen?

    Sebastian

  3. #3
    Administrator Avatar von xchs
    Registriert seit
    19.06.2009.
    Beiträge
    14.559
    User beschenken
    Wunschliste
    Contao-Projekt unterstützen

    Support Contao

    Standard

    Zitat Zitat von BigDaddy Beitrag anzeigen
    Mit dem internen Test-Tool von Google habe ich die URLs und die "robots.txt" geprüft.
    Meinst Du mit dem "internen Test-Tool" die Google Webmaster-Tools?
    Contao Community Administrator

    [Unterstützungsmöglichkeiten]

  4. #4
    Contao-Nutzer
    Registriert seit
    24.06.2009.
    Beiträge
    97

    Standard

    @ Sebastian,

    Entschuldigung, ich meine natürlich TL 2.8.1 .
    Sonderzeichen sind weder in der sitemap.xml noch in der robots.txt

    @ xchs

    Ja die Google Webmastertools

    MfG

    BigDaddy

  5. #5
    Contao-Nutzer
    Registriert seit
    09.02.2010.
    Beiträge
    17

    Standard Gleiches Problem

    Hallo BigDaddy,

    so eigenartig ist Dein Problem nicht. Bei mir tritt haargenau das Gleiche auf und ich habe noch keinen Lösungsansatz gefunden. Bist Du denn ein Stückchen weiter gekommen?

    Grüße
    Thomas

  6. #6
    Administrator Avatar von xchs
    Registriert seit
    19.06.2009.
    Beiträge
    14.559
    User beschenken
    Wunschliste
    Contao-Projekt unterstützen

    Support Contao

    Standard

    Zitat Zitat von tom56 Beitrag anzeigen
    Hallo BigDaddy,

    so eigenartig ist Dein Problem nicht. Bei mir tritt haargenau das Gleiche auf und ich habe noch keinen Lösungsansatz gefunden. Bist Du denn ein Stückchen weiter gekommen?
    Könnte es vielleicht sein, dass die betreffende Datei nicht im UTF-8 Format gespeichert ist bzw. die Zeichencodierung während der Übertragung geändert wurde?
    Contao Community Administrator

    [Unterstützungsmöglichkeiten]

  7. #7
    Contao-Nutzer
    Registriert seit
    24.06.2009.
    Beiträge
    97

    Standard

    Hallo tom56,

    bei mir hat sich das Problem nach einiger Zeit von selber erledigt. Warum, wieso, weshalb? Keine Ahnung! Dieser Effekt ist das erste Mal bei mir aufgetreten und jetzt scheint alles O.K. zu sein.
    Vielleicht hat Google einen schlechten Tag gehabt und sich irgendwie verschluckt. Ich habe keine Ahnung!

    Sorry

    BigDaddy

  8. #8
    Contao-Nutzer
    Registriert seit
    09.02.2010.
    Beiträge
    17

    Standard Danke

    Hallo xchs & BigDaddy,
    zunächst danke für Eure Antworten.

    @xchs
    Das kann (eigentlich ;-) nicht sein, denn die robots.txt wurde mit dem gesamten TL-Ordner per Win-SCP hochgeladen und danach nicht geändert. Falls das am Kern Deiner Antwort vorbeigeht, bitte ich schon jetzt um Gnade ;-)

    @BigDaddy
    Ich habe zwar vermutet, dass sich die Sache so entwickelt, wie Du es sagst, aber eben nicht gewusst. Insofern ist mir Deine Bestätigung sehr wichtig. Ich wollte vor allem ausschließen, dass ich bei TL irgendetwas Lapidares übersehen habe und sich meine (erste mit TL überarbeitete) Seite irgendwann einmal gänzlich bei „Google & Co.“ verabschiedet.

    Also, danke nochmals an Euch beide.
    Einen schönen Sonntag wünscht the://thomas


Aktive Benutzer

Aktive Benutzer

Aktive Benutzer in diesem Thema: 1 (Registrierte Benutzer: 0, Gäste: 1)

Ähnliche Themen

  1. Webhosting bei iNet Robots
    Von wieki im Forum Erfahrungen mit Webhostern
    Antworten: 20
    Letzter Beitrag: 12.12.2010, 19:04
  2. fehlerseiten und robots.txt
    Von ways2web im Forum Sonstiges zu Contao
    Antworten: 0
    Letzter Beitrag: 01.09.2010, 01:50
  3. robots.txt und tl_files
    Von frank.huettner im Forum Installation / Update
    Antworten: 1
    Letzter Beitrag: 01.03.2010, 08:38
  4. Meta Tag robots
    Von quintacom im Forum Sonstiges zu Contao
    Antworten: 7
    Letzter Beitrag: 20.01.2010, 11:27
  5. In robots.txt User-agent: *
    Von Nils Riel im Forum Off Topic
    Antworten: 1
    Letzter Beitrag: 13.11.2009, 14:16

Lesezeichen

Lesezeichen

Berechtigungen

  • Neue Themen erstellen: Nein
  • Themen beantworten: Nein
  • Anhänge hochladen: Nein
  • Beiträge bearbeiten: Nein
  •