In einer Java-App, die auf einem Randknoten läuft, muss ich einen hdfs-Ordner löschen, falls er existiert. Ich muss das tun, bevor ich einen Mapreduce-Job (mit Spark) starte, der im Ordner ausgegeben wird.
Ich fand, ich könnte die Methode ver...
27.02.2015, 14:39