Wie man Pyspark in Anaconda importiert

8

Ich versuche, pyspark mit Anaconda zu importieren und zu verwenden.

Nachdem ich Spark installiert und die $SPARK_HOME Variable gesetzt habe, habe ich versucht:

%Vor%

Dies wird nicht funktionieren (natürlich), weil ich entdeckt habe, dass ich tel python suchen muss, um nach pyspark unter $SPARK_HOME/python/ zu suchen. Das Problem ist, dass ich dazu $PYTHONPATH setzen muss, während Anaconda diese Umgebungsvariable nicht benutzt.

Ich habe versucht, den Inhalt von $SPARK_HOME/python/ nach ANACONDA_HOME/lib/python2.7/site-packages/ zu kopieren, aber es wird nicht funktionieren.

Gibt es eine Lösung, um pyspark in Anaconda zu verwenden?

    
farhawa 19.11.2015, 20:43
quelle

4 Antworten

8

Sie können einfach die Umgebungsvariablen PYSPARK_DRIVER_PYTHON und PYSPARK_PYTHON so einstellen, dass entweder Root Anaconda Python oder eine bestimmte Anaconda-Umgebung verwendet wird. Zum Beispiel:

%Vor%

oder

%Vor%

Wenn Sie $SPARK_HOME/bin/pyspark / $SPARK_HOME/bin/spark-submit verwenden, wird eine korrekte Umgebung ausgewählt. Denken Sie daran, dass PySpark auf allen Rechnern dieselbe Python-Version hat.

Bei einer Seitennotiz sollte PYTHONPATH funktionieren, auch wenn es nicht empfohlen wird.

    
zero323 19.11.2015 21:30
quelle
1

Ich glaube nicht, dass Sie pyspark als Modul benötigen oder installieren können. Stattdessen habe ich mein $PYTHONPATH in meinem ~ / .bash_profile wie folgt erweitert:

export PYTHONPATH=$SPARK_HOME/python:$SPARK_HOME/python/build:$PYTHONPATH

Danach konnte ich import pyspark as ps . Hoffe, dass das auch für dich funktioniert.

    
PC3SQ 08.03.2016 06:01
quelle
1
___ qstntxt ___

Ich versuche, %code% mit Anaconda zu importieren und zu verwenden.

Nachdem ich Spark installiert und die %code% Variable gesetzt habe, habe ich versucht:

%Vor%

Dies wird nicht funktionieren (natürlich), weil ich entdeckt habe, dass ich tel python suchen muss, um nach %code% unter %code% zu suchen. Das Problem ist, dass ich dazu %code% setzen muss, während Anaconda diese Umgebungsvariable nicht benutzt.

Ich habe versucht, den Inhalt von %code% nach %code% zu kopieren, aber es wird nicht funktionieren.

Gibt es eine Lösung, um pyspark in Anaconda zu verwenden?

    
___ qstnhdr ___ Wie man Pyspark in Anaconda importiert ___ antwort43381489 ___

Hier sind die vollständigen Umgebungsvariablen, die ich in meine .bashrc einfügen musste, um dies sowohl in Skripten als auch in Notebooks zu erreichen.

%Vor%     
___ answer35860110 ___

Ich glaube nicht, dass Sie pyspark als Modul benötigen oder installieren können. Stattdessen habe ich mein %code% in meinem ~ / .bash_profile wie folgt erweitert:

%code%

Danach konnte ich %code% . Hoffe, dass das auch für dich funktioniert.

    
___ answer33814715 ___

Sie können einfach die Umgebungsvariablen %code% und %code% so einstellen, dass entweder Root Anaconda Python oder eine bestimmte Anaconda-Umgebung verwendet wird. Zum Beispiel:

%Vor%

oder

%Vor%

Wenn Sie %code% / %code% verwenden, wird eine korrekte Umgebung ausgewählt. Denken Sie daran, dass PySpark auf allen Rechnern dieselbe Python-Version hat.

Bei einer Seitennotiz sollte %code% funktionieren, auch wenn es nicht empfohlen wird.

    
___ tag123pypark ___ Die Spark Python-API (PySpark) macht das Apache-Spark-Programmiermodell für Python verfügbar. ___ tag123apachespark ___ Apache Spark ist eine Open-Source-Bibliothek für die verteilte Datenverarbeitung für groß angelegte In-Memory-Datenanalyse-Computing. ___ tag123python ___ Python ist eine dynamische und stark typisierte Programmiersprache, die die Usability betont. Zwei ähnliche, aber größtenteils inkompatible Versionen von Python sind weit verbreitet (2 und 3). Wenn Sie eine versionsspezifische Python-Frage haben, sollten Sie die Tags [python-2.7] oder [python-3.x] zusätzlich zum Tag [python] verwenden. Wenn Sie eine Python-Variante wie jython, pypy, iron-python usw. verwenden, kennzeichnen Sie diese bitte entsprechend. ___ tag123anaconda ___ Anaconda ist eine Open Data Science-Plattform mit Python-Unterstützung. ___ answer49656873 ___

Vielleicht kann dies jemandem helfen. Gemäß der Anaconda-Dokumentation installieren Sie FindSpark wie folgt:

%Vor%

Erst nachdem ich es installiert hatte, konnte ich FindSpark importieren. Keine Exportanweisungen erforderlich.

    
___
Tom Whittaker 13.04.2017 00:02
quelle
0

Vielleicht kann dies jemandem helfen. Gemäß der Anaconda-Dokumentation installieren Sie FindSpark wie folgt:

%Vor%

Erst nachdem ich es installiert hatte, konnte ich FindSpark importieren. Keine Exportanweisungen erforderlich.

    
Tshilidzi Mudau 04.04.2018 17:19
quelle