Ich habe gestern die 4.9 erstmals installiert bzw. darauf geupdated und gleich den Crawler ausprobiert. Beim Suchen nach defekten Links bleibt er irgendwann stehen. Gestern bei 32% und 24620 von 74713 Links. Heute bei 33% und 25299 / 74829. Ich habe aber diesmal die Netzwerkanalyse vorher gestartet. Es tritt ein 500er auf. Im Log steht:
Code:
[2020-12-30 12:13:20] request.INFO: Matched route "contao_backend". {"route":"contao_backend","route_parameters":{"_route":"contao_backend","_scope":"backend","_token_check":true,"_controller":"Contao\\CoreBundle\\Controller\\BackendController::mainAction"},"request_uri":"https://www.schachbund.de/contao?act=crawl&crawl_subscriber_names%5B0%5D=broken-link-checker&do=maintenance&jobId=28f839cc-fce0-4db5-af91-7c632ea0daf8&ref=aZhZhqa3","method":"POST"} []
[2020-12-30 12:13:22] request.CRITICAL: Uncaught PHP Exception TypeError: "Argument 2 passed to Terminal42\Escargot\Subscriber\RobotsSubscriber::handleNoindexNofollowTags() must be of the type string, null given, called in /usr/www/users/hoppe/webseiten/dsbweb.2020/vendor/terminal42/escargot/src/Subscriber/RobotsSubscriber.php on line 110" at /usr/www/users/hoppe/webseiten/dsbweb.2020/vendor/terminal42/escargot/src/Subscriber/RobotsSubscriber.php line 114 {"exception":"[object] (TypeError(code: 0): Argument 2 passed to Terminal42\\Escargot\\Subscriber\\RobotsSubscriber::handleNoindexNofollowTags() must be of the type string, null given, called in /usr/www/users/hoppe/webseiten/dsbweb.2020/vendor/terminal42/escargot/src/Subscriber/RobotsSubscriber.php on line 110 at /usr/www/users/hoppe/webseiten/dsbweb.2020/vendor/terminal42/escargot/src/Subscriber/RobotsSubscriber.php:114)"} []
Ich habe das mal auch unter https://github.com/terminal42/escargot/issues/19 gemeldet. Ich hoffe da bin ich richtig.