Suchindex per CLI bei ALL-INKL aufbauen
Hallo,
ich möchte jetzt mal den Suchindex per CLI aufbauen.
Ich bin bei All-Inkl und mein SSH User meldet sich quasi gleich für meine Domain an, wenn ich das richtig verstehe. So wie es im Handbuch steht mit der Domain hinter der Anmeldung wird mir der Zugang verweigert.
https://docs.contao.org/manual/de/sy...rtung/#crawler
Also habe ich das Unterverzeichnis der Installation gewechselt, wo ich den Suchindex aktualisieren möchte. Es liegen da aber mehrere Umgebungen nebeneinander in verschiedenen Unterverzeichnissen, also
SSH-User Berechtigung für das Verzeichnis und darin ist:
contao_1
contao_2
contao_3
Wenn nun die Umgebung, wo ich den Suchindex aufbauen möchten, in Verzeichnis "contao_3" liegt, bin ich in dieses gewechselt und dann in
vendor/bin/
Gebe ich dort
contao-console contao:crawl
ein, bekomme ich ein "comand not found". Ich muss mich ja sicherlich auch im CLI anmelden oder? Wie mache ich das?
Liste der Anhänge anzeigen (Anzahl: 1)
Vielleicht habe ich ja etwas falsch eingestellt. Schau mal, so sehen die Meldungen aus:
Code:
[Contao\CoreBundle\Crawl\Escargot\Subscriber\SearchIndexSubscriber] [[object] (Terminal42\Escargot\CrawlUri: URI: https://www.***/seitenname/page/3.html?page=4 (Level: 4, Processed: yes, Found on: https://www.***/seitenname/page/3.html, Tags: none))] Broken link! HTTP Status Code: 404.
Wo kommen diese SeitenURLs her? https://www.***/seitenname/page/3.html?page=4
Die habe ich gar nicht.
Und so sehen sie auch nicht aus: https://www.***/seitenname/page/3.html
sondern so: https://www.***/seitenname.html?page=4
Anhang 25165
Liste der Anhänge anzeigen (Anzahl: 1)
Also, ich denke wir haben das Problem so weit eingegrenzt, dass es an den Filtern von MM liegt. Hier werden Links erzeugt, die es eigentlich nicht geben sollte. Das war auch schon vorher so, haben wir nun feststellen können, aber es ist mir nie aufgefallen. Es gab ja auch nie einen Zusammenhang mit dem Aufbau des Suchindexes.
Als Workaround will ich nun mal alle Filter deaktivieren und dann den Suchindex neu erzeugen. Wenn das geht ist das der Workaround. Ansonsten ist es wie es ist, bis es eine Korrektur dazu gibt. zonky hat schon ein Ticket dazu erstellt. Danke dafür und auch für die tolle Hilfe bei der Analyse :)!
Aus dem Fehler ergibt sich nun ein weiteres Problem bei mir. Die Datensicherung der Datenbank funktioniert derzeit nicht über das Tool von do_while. Das liegt an der Größe, die die Datenbank jetzt hat. Es gibt einen Serverfehler, dass der Speicherverbrauch vom RAM zu hoch ist.
Vor dem Upgrade von 4.4. hatte die gesamte Datenbank ca. 100 MB, nun hat sie durch die Einträge in der Tabelle tl_crawl_queue 530 MB. Allein diese Tabelle hat 436 MB :eek:. Kann ich die einfach leeren? Oder wofür wird die verwendet? Die Crawler Jobs laufen bisher ja nie durch und ich habe sie mehrfach gestartet. Ich finde auch gleiche Einträge. Muss man die Tabelle über die Systemwartung leeren, bevor man einen neuen Crawl Prozess startet?
Im Handbuch steht dazu noch nichts und der Screenshot ist auch nicht aus 4.9, dann da ist die Tabelle noch nicht drauf zu sehen. So sieht es nun bei mir in 4.9 aus.
Anhang 25174