Der Fehler wird nicht durch die java.io.IOException verursacht, da Sie eindeutig 16/01/12 23:26:14 INFO Worker: Asked to kill executor app-20160112232613-0012/0
sehen können. Diese Ausnahme wird später ausgelöst, wenn Spark versucht, die Protokolldateien zu schreiben, in denen Sie auch die Ursache Ihres Fehlers beobachten.
Auch wenn Sie mit root
privilege funke-submit ausführen, ist es der spark
Benutzer, der die Dateien schreibt. Ich schätze, Sie laufen auf Ihrem Laptop dies. Versuchen Sie, sudo chmod -R 777
auf Ihrem Spark-Ordner auszuführen.
In meinem Fall war das Problem, dass der Funketreiber nicht in der Lage war, die Abhängigkeiten vom ausführbaren Jar zu erhalten, der gesendet wurde. Alle Abhängigkeiten zusammengeführt und in eine einzelne ausführbare Datei konvertiert. Das Problem wurde behoben.
Bitte tragen Sie meine Terminologien :)
Tags und Links java apache-spark