Jeder benutzt s3 auf Frankfurt mit hadoop / spark 1.6.0?
Ich versuche das Ergebnis eines Jobs in s3 zu speichern, meine Abhängigkeiten werden wie folgt deklariert:
%Vor%Ich habe folgende Konfiguration vorgenommen:
%Vor% Wenn ich saveAsTextFile
auf meiner RDD anrufe, startet es OK und speichert alles auf S3. Nach einiger Zeit jedoch, wenn es von _temporary
auf das endgültige Ausgabeergebnis überträgt, ergibt sich der Fehler:
Wenn ich hadoop-client
vom Spark-Paket verwende, wird die Übertragung nicht einmal gestartet. Der Fehler tritt zufällig auf, manchmal funktioniert es und manchmal nicht.
Tags und Links scala hadoop amazon-s3 apache-spark