Ich habe in den letzten drei Wochen nutch crawling-Befehle ausgeführt und jetzt bekomme ich den folgenden Fehler, wenn ich versuche, einen nutch-Befehl auszuführen.
Warnung für Java HotSpot (TM) 64-Bit-Server-VM: Zu wenig Speicherplatz für Shared Memory-Datei: / tmp / hsperfdata_user / 27050 Versuchen Sie es mit dem -Djava.io.tmpdir = Option, um einen alternativen temporären Speicherort auszuwählen.
Fehler: Die Hauptklasse
Ich denke, dass der temporäre Ort, der benutzt wurde, voll ist. Versuchen Sie es mit einem anderen Ort. Überprüfen Sie auch die #Inodes in jeder Partition frei und löschen Sie etwas Speicherplatz.
BEARBEITEN: Es besteht keine Notwendigkeit, das / tmp auf OS-Ebene zu ändern. Wir möchten, dass nutch und hadoop einen anderen Speicherort für temporäre Dateien verwenden. Schau dir das an, um das zu tun: Was sollte hadoop.tmp.dir sein?
Ja, das ist wirklich ein Problem mit dem verfügbaren Speicherplatz auf dem Volume, auf dem / tmp installiert ist. Wenn Sie dies auf EC2 oder einer anderen Cloud-Plattform ausführen, hängen Sie ein neues Volume an und mounten Sie / tmp darauf. Wenn Sie lokal arbeiten, gibt es keine andere Möglichkeit als das Aufräumen, um mehr Platz zu schaffen.
Probieren Sie Befehle wie: df -h aus, um den Prozentsatz des belegten und verfügbaren Speicherplatzes auf jedem Volume zu sehen, das auf Ihrer Instanz gemountet ist. Sie werden etwas wie sehen:
%Vor%Sie werden diesen Fehler sehen, wenn der Speicherplatz voll ist, wie in diesem Speicherauszug gezeigt.