SparkSQL MissingRequirementError beim Registrieren der Tabelle

8

Ich bin ein Neuling für Scala und Apache Spark und versuche, Spark SQL zu verwenden. Nach dem Klonen des Repo habe ich die Spark-Shell gestartet, indem ich bin/spark-shell eingegeben und folgendes ausgeführt habe:

%Vor%

und alles hat wie erwartet funktioniert. Die users.txt -Datei ist ungefähr wie folgt:

%Vor%

Danach habe ich versucht ein eigenständiges Projekt zu erstellen und ich habe die Abhängigkeiten mit sbt erstellt. Die in build.sbt aufgelisteten Abhängigkeiten lauten wie folgt:

%Vor%

Wenn ich die gleichen Anweisungen ausführe, stürzt es in dieser Zeile ab:

%Vor%

mit diesem Fehler:

%Vor%

Was ist das Problem?

UPDATE:

Ok, ich glaube nicht, dass das Problem Spark SQL ist, sondern Spark selbst, da ich nicht einmal users.collect() ausführen kann. Wenn es in der Spark-Shell ausgeführt wird, lautet das Ergebnis stattdessen:

%Vor%

wie erwartet. Der Fehler ist folgender:

%Vor%

Ich fand das auch java.io .EOFException auf Spark EC2 Cluster beim programmatischen Senden von Jobs , aber ich weiß nicht, welche Version von hadoop-client benötigt werden könnte.

    
se7entyse7en 07.01.2015, 16:44
quelle

2 Antworten

6

Dieses Problem kann behoben werden, indem fork := true zu sbt Projekteinstellungen hinzugefügt wird.

Siehe: Ссылка

Weitere nützliche Einstellungen finden Sie möglicherweise in der referenzierten Projektdatei:

Ссылка

    
Wildfire 24.01.2015 23:25
quelle
0

Versuchen Sie, "org.apache.spark"% "spark-catalyst_2.10"% "1.2.0" hinzuzufügen (obwohl ich denke, dass dies als Abhängigkeit herangezogen werden sollte).

    
tgpfeiffer 08.01.2015 04:32
quelle