Ich habe bereits Hadoop auf meinem Rechner installiert "Ubuntu 13.05" und jetzt habe ich einen Fehler beim Durchsuchen von localhost: 50070 der Browser sagt, dass die Seite nicht existiert.
Port 50070 wurde in 3.0.0-alpha1 zu 9870 geändert
Tatsächlich haben sich auch viele andere Ports geändert. Schau:
%Vor%Überprüfen Sie zuerst, welche Java-Prozesse mit "jps" ausgeführt werden. Wenn Sie sich in einem pseudo-verteilten Modus befinden, müssen Sie die folgenden Prozesse haben:
Wenn Sie eines verpassen, verwenden Sie die restart-Befehle:
%Vor%Es kann auch daran liegen, dass Sie diesen Port auf dem Computer nicht geöffnet haben:
%Vor%Für aktuelle Hadoop-Versionen (ich benutze 2.7.1)
Die Start \ Stopp-Skripte befinden sich im Ordner sbin
. Die Skripte sind:
Ich musste nichts mit yarn tun, um die Instanz NameNodeServer auszuführen.
Jetzt war mein Fehler, dass ich den NameNodeServer HDFS nicht formatiert habe.
%Vor%Ich bin mir nicht ganz sicher, was das im Moment macht, aber es bereitet offensichtlich den Raum vor, auf dem der NameNodeServer operieren wird.
Wenn Sie Ссылка öffnen können, können Sie Ссылка nicht öffnen . Vielleicht hat Datanode nicht gestartet oder Namenknoten nicht formatiert.
Hadoop-Version 2.6.4
Überprüfen Sie, ob Ihr namenode formatiert wurde, wenn nicht:
%Vor% überprüfe deinen namenode tmp Dateipfad, um in /tmp
zu sehen, wenn das namenode Verzeichnis in /tmp
ist, musst du tmp Pfad in core-site.xml
setzen, weil jedes Mal, wenn du deinen Rechner neustartet oder startest, die Dateien in /tmp
wird entfernt, Sie müssen einen tmp Verzeichnispfad angeben.
füge folgendes hinzu:
%Vor% Überprüfe Schritt 2, stoppe hadoop und entferne den namenode tmp dir in /tmp
, tippe dann /path/to/hdfs namenode -format
ein und starte den hadoop. Das ist auch ein tmp
dir in $HADOOP_HOME
Wenn alle oben genannten nicht helfen, bitte unten kommentieren!
Versuchen Sie
%Vor% Siehe namenode
und datanode
werden ausgeführt und durchsuchen
Wenn localhost:50070
immer noch nicht funktioniert, müssen Sie Ports zulassen. Also, überprüfe
Es gibt eine ähnliche Frage und Antwort unter: Start Hadoop 50075 Port ist nicht aufgelöst
Sehen Sie sich die Datei core-site.xml an, um festzustellen, auf welchen Port sie eingestellt ist. Wenn 0, wählt es zufällig einen Port aus, also stellen Sie sicher, dass Sie einen setzen.
Zuerst müssen Sie nur Hadoop-Knoten und Tracker starten, indem Sie einfach tippen start-all.sh auf Ihrem Terminal. Um zu überprüfen, ob alle Tracker und Knoten gestartet sind, schreiben Sie den Befehl 'jps'. wenn alles in Ordnung ist und funktioniert, gehe zu deinem Browser und gib die folgende URL ein Ссылка
Aktivieren Sie den Port in Ihrem System für CentOS 7 Fließen Sie die Befehle unten
1.firewall-cmd --get-active-zones
2.firewall-cmd --zone = dmz --add-port = 50070 / tcp --permanent
3.firewall-cmd --zone = öffentlich --add-port = 50070 / tcp --permanent
4.firewall-cmd --zone = dmz --add-port = 9000 / tcp --permanent
5.firewall-cmd --zone = öffentlich --add-port = 9000 / tcp --permanent 6.firewall-cmd --Laden
Tags und Links hadoop