Nicht genügend Speicherplatz für die Shared-Memory-Datei, wenn ich versuche, nutch generate auszuführen

8

Ich habe in den letzten drei Wochen nutch crawling-Befehle ausgeführt und jetzt bekomme ich den folgenden Fehler, wenn ich versuche, einen nutch-Befehl auszuführen.

  

Warnung für Java HotSpot (TM) 64-Bit-Server-VM: Zu wenig Speicherplatz für   Shared Memory-Datei: / tmp / hsperfdata_user / 27050 Versuchen Sie es mit dem   -Djava.io.tmpdir = Option, um einen alternativen temporären Speicherort auszuwählen.

     

Fehler: Die Hauptklasse

peter 12.01.2013, 05:19
quelle

2 Antworten

7

Ich denke, dass der temporäre Ort, der benutzt wurde, voll ist. Versuchen Sie es mit einem anderen Ort. Überprüfen Sie auch die #Inodes in jeder Partition frei und löschen Sie etwas Speicherplatz.

BEARBEITEN: Es besteht keine Notwendigkeit, das / tmp auf OS-Ebene zu ändern. Wir möchten, dass nutch und hadoop einen anderen Speicherort für temporäre Dateien verwenden. Schau dir das an, um das zu tun: Was sollte hadoop.tmp.dir sein?

    
Tejas Patil 12.01.2013, 05:40
quelle
5

Ja, das ist wirklich ein Problem mit dem verfügbaren Speicherplatz auf dem Volume, auf dem / tmp installiert ist. Wenn Sie dies auf EC2 oder einer anderen Cloud-Plattform ausführen, hängen Sie ein neues Volume an und mounten Sie / tmp darauf. Wenn Sie lokal arbeiten, gibt es keine andere Möglichkeit als das Aufräumen, um mehr Platz zu schaffen.

Probieren Sie Befehle wie: df -h aus, um den Prozentsatz des belegten und verfügbaren Speicherplatzes auf jedem Volume zu sehen, das auf Ihrer Instanz gemountet ist. Sie werden etwas wie sehen:

%Vor%

Sie werden diesen Fehler sehen, wenn der Speicherplatz voll ist, wie in diesem Speicherauszug gezeigt.

    
Kingz 20.09.2014 21:22
quelle

Tags und Links