Das offizielle Tutorial gibt die Vorgehensweise zum Aufruf von scrapy im Python-Skript an
>Durch Ändern der folgenden Einstellungsattribute:
%Vor%Ich kann die Daten, die in einer JSON-Datei gespeichert sind, speichern.
Ich versuche jedoch, die Daten zu verarbeiten, die sofort innerhalb der von mir definierten Funktion gekratzt werden. Daher können andere Funktionen diese Wrapper-Funktion aufrufen, um einige Websites zu löschen.
Ich denke, da müssen einige Einstellungen sein, die ich mit FEED_URI
spielen kann, aber ich bin mir nicht sicher. Jeder Rat wird sehr geschätzt werden!
Feed-Exporte sollen die Daten, die Sie scrapped haben, serialisieren (siehe Feed-Export-Dokumentation ). Was Sie versuchen zu tun, beinhaltet keine Serialisierung.
Was Sie stattdessen tun möchten, ist eine Pipeline . Scrapy wird scraped Items
an die Pipeline übergeben. Sie sind Wörterbücher, und Sie können mit ihnen machen, was Sie wollen.