Lassen Sie ein Funke-Cluster-Setup auf einem Computer mit zwei Inet, einem öffentlichen anderen privaten. Die Datei / etc / hosts im Cluster hat die interne IP-Adresse aller anderen Maschinen im Cluster, so.
interner_ip FQDN
Wenn ich jedoch einen SparkContext über pyspark im YARN-Client-Modus ( pyspark --master yarn --deploy-mode client
) anfordere, bindet sich akka an die öffentliche IP-Adresse und es tritt ein Timeout auf.
%Vor%
Wie aus dem Protokoll ersichtlich, wird private IP vollständig ignoriert. Wie kann ich YARN und spark verwenden, um die private IP-Adresse zu verwenden, die in der hosts-Datei angegeben ist?
Der Cluster wurde mit Ambari (HDP 2.4) bereitgestellt.