Ich möchte einen Crawler erstellen, der die Informationen aller Seiten eins nach dem anderen von der Nummer 0 auf 10 000 000 nimmt. Es spielt keine Rolle, wie viel Zeit es braucht. Ich will nur, dass es funktioniert. Hier ist der Fehler, den ich bekomme
%Vor%Die Zeile 25 ist
%Vor%Und da ist mein komplettes Drehbuch.
Danke für Ihre Hilfe!
%Vor%ändert den Parameter /etc/mysql/my.cnf in etwas ähnliches max_allowed_packet = 512M
Stellen Sie sicher, dass Sie xdebug installiert haben (verwenden Sie phpinfo ()) und ändern Sie dann die Datei /etc/php5/fpm/php.ini, indem Sie die Zeile hinzufügen oder bearbeiten: xdebug.max_nesting_level = 1000
Starten Sie beide Dienste neu sudo-service mysql neu starten Sudo-Service php5-fpm Neustart
Wenn es nicht funktioniert, können Sie diese beiden Parameter in /etc/php5/fpm/php.ini auf false setzen xdebug.remote_autostart = 0 xdebug.remote_enable = 0
In meinem Fall war es mit dem Komponisten verwandt. Einige Anbieter wurden in der Datei composer.json aktualisiert, aber ich habe vergessen, die Befehle composer update und composer install auszuführen. Das System erzeugte eine Kaskade von Fehlern, die diese "maximale verschachtelte Ebene" verursachten.
Nach der Ausführung dieser Befehle wurde das Problem behoben
Angenommen, Sie haben keinen Fehler gemacht, indem Sie den Grenzwert von xdebug ändern.
Ich liebte dieses Problem, indem ich die Datei xdebug.ini änderte. (In meinem Mac ist der Pfad /usr/local/php5-5.6.17-20160108-103504/php.d/50-extension-xdebug.ini , vielleicht ist deins etwas anders. )
Fügen Sie am Ende der Datei xdebug.ini eine neue Zeile hinzu:
xdebug.max_nesting_level = 500
Denken Sie daran: Sie müssen die xdebug.ini ändern, die dem von Ihnen verwendeten PHP entspricht. Zum Beispiel, wenn Sie php5 und xampp auf Ihrem Computer installiert haben, müssen Sie herausfinden, welchen php Sie verwenden.