funke console: 12: Fehler: nicht gefunden: Wert sc

8

Ich schrieb folgendes:

%Vor%

und es zeigt einen Fehler an:

%Vor%

Irgendwelche Hilfe?

    
Amitesh Ranjan 08.08.2014, 12:42
quelle

7 Antworten

3

In meinem Fall habe ich Spark auf lokalen Windows-System installiert und ich beobachtete den gleichen Fehler, aber es war wegen unten Problem

Problem: verursacht durch: java.lang.RuntimeException: Das root scratch dir: / tmp / hive in HDFS sollte beschreibbar sein .

Dies war wegen Erlaubnissproblem. Ich löste es, indem ich die Berechtigungen unter Verwendung des Befehls unten änderte. Obwohl Protokoll sagt "auf hdfs" ist dies auf Windows-System

E: \ winutils \ bin \ winutils.exe chmod 777 E: \ tmp \ hive

    
satish sasate 26.02.2017 10:36
quelle
2

Dies passiert, wenn Ihr Klassenpfad nicht korrekt ist. Dies ist ein offenes Problem in Spark im Moment.

%Vor%

Sie müssen möglicherweise Ihren Klassenpfad von außerhalb des Replikats korrigieren.

    
Shyamendra Solanki 08.08.2014 13:19
quelle
1

Sie erhalten diesen Fehler, weil sc nicht definiert ist. Ich würde versuchen:

%Vor%

Eine andere Sache, die mir normalerweise passiert, ist, dass ich kein Kerberos-Ticket im Cluster bekomme, weil ich es auch vergessen habe.

Was das von Solnanki erwähnte "offene Problem in Spark" betrifft, bin ich mir ziemlich sicher, dass dies nicht mehr der Fall ist.

    
gsamaras 22.08.2016 18:19
quelle
1

Überprüfen Sie zuerst die Protokolldatei nach dem Ausführen von Spark-Shell ob SparkContext als sc initialisiert wird wenn SparkContext nicht richtig initialisiert ist

Sie müssen die IP-Adresse in der Funkenumgebung einstellen.

Öffnen Sie die env-Datei in conf / spark.env.sh und fügen Sie die folgende Zeile hinzu

export SPARK_LOCAL_IP="127.0.0.1"

    
uday 28.09.2016 08:37
quelle
0

Ich habe diesen Fehler beim Testen von Spark auf Cloudera Quickstart VM gefunden. Hat sich als Problem mit der hdfs-Dateiberechtigung in /user/spark herausgestellt.

Ich konnte nicht zum Benutzer "spark" wechseln, ich habe einen Benutzer nicht verfügbar Fehler bekommen. Ändern der Dateiberechtigungen mit dem folgenden Befehl löste es für mich.

%Vor%     
user3321437 24.03.2015 02:58
quelle
0

Ich hatte das gleiche Problem. In meinem Fall wurde JAVA_HOME nicht richtig eingestellt, was dieses Problem verursacht. Überraschenderweise würde SPARK starten, aber der sc-Kontext hatte Probleme beim Erstellen einer Instanz. Als ich das JAVA_HOME reparierte, um auf das korrekte Java-Verzeichnis zu zeigen, wurde dieses Problem aufgelöst. Ich musste die Sitzung schließen und eine neue öffnen, um sicherzustellen, dass der Pfad aktualisiert und die neue Sitzung aktiviert wurde.

Ich hoffe, das hilft.

    
Santosh Gaikwad 02.02.2017 04:25
quelle
0

Wie in dieser Thread , eine Lösung könnte sein, die Überprüfung von Berechtigungen zu deaktivieren.

  

Gehen Sie in cloudera manager zu hdfs configuration advanced und fügen Sie den folgenden Code in "HDFS Service Advanced Configuration Snippet (Sicherheitsventil) für hdfs-site.xml":

ein
%Vor%

Danach muss die HDFS-Komponente neu gestartet werden.

Es hat für mich funktioniert. Es ist jedoch möglicherweise nicht für eine Produktionsumgebung geeignet.

    
Franc Drobnič 06.10.2017 20:42
quelle