Hadoop: Erfordert das root-Passwort nach Eingabe von "start-all.sh"

8

Ich habe Hadoop und SSH auf meinem Laptop installiert. "ssh localhost" funktioniert gut. Nach dem Formatieren von HDFS habe ich versucht, Hadoop zu starten.

%Vor%

Es erfordert ein Passwort. Meine Rolle ist "munichong". Aber das Passwort von munichong funktioniert hier nicht. Hier hat sich meine Rolle in "root" geändert. Ich weiß nicht, ob ich hier etwas verpasst habe.

Kann mir jemand helfen?

Danke!

    
Munichong 04.03.2013, 05:20
quelle

5 Antworten

9

Lösung:

1) Erzeuge SSH-Schlüssel ohne Passwort

%Vor%

2) Kopieren Sie id_rsa.pub auf authorized-keys

%Vor%

3) Starten Sie ssh localhost

%Vor%

4) gehe jetzt zum hadoop sbin-Verzeichnis und starte hadoop

%Vor%

5) Passwort nicht gefragt

%Vor%     
KARTHIKEYAN.A 05.09.2016 10:12
quelle
5

Wie im obigen Fall ist munichong ein Benutzer (munichong @ GrindPad)

  1. In meinem Fall: Melden Sie sich als hususer

  2. an
  3. Entfernen Sie zuerst das Verzeichnis sudo rm -rf ~/.ssh

  4. Verwenden Sie, um das Verzeichnis /.ssh mit der Standardeinstellung neu zu erstellen:

    %Vor%
  5. Hier kopieren wir den Inhalt von id_rsa.pub und fügen ihn in die Datei authorized_keys ein, die mit dem obigen Befehl erstellt wurde.

    %Vor%
  6. [hususer @ localhost ~] $ chmod -R 750 ~/.ssh/authorized_keys

  7. [hduser @ localhost ~] $ ssh localhost

      

    Die Authentizität des Hosts 'localhost (127.0.0.1)' kann nicht ermittelt werden.   RSA-Schlüssel-Fingerabdruck ist 04: e8: 80: 64: dc: 71: b5: 2f: c0: d9: 28: 86: 1f: 61: 60: 8a.   Sind Sie sicher, dass Sie die Verbindung fortsetzen möchten (ja / nein)? ja

         

    Warnung: "Localhost" (RSA) dauerhaft zur Liste der bekannten Hosts hinzugefügt.   Letzter Login: Mo Jan 4 14:31:05 2016 von localhost.localdomain

  8. [hususer @ localhost ~] $ jps
    18531 Jps

  9. [hususer @ localhost ~] $ start-all.sh

  10. Alle Dämonen starten

Hinweis: Irgendwann aufgrund von Log-Dateien treten andere Probleme auf, in diesem Fall entfernen Sie nur Dot-Out-Dateien (.out) aus / usr / local / hadoop / logs /.

    
Nishant Shrivastava 04.01.2016 19:48
quelle
3

Ich stieß auf das gleiche Problem. Wie Amar sagte, wenn du als sudo rennst, wird hadoop nach dem Root-Passwort fragen. Wenn Sie kein root-Passwort haben, können Sie eines mit

einrichten %Vor%

unter URL gibt Ihnen mehr Details zur Benutzerverwaltung.

Ссылка

    
javamak 18.04.2013 14:49
quelle
0

Erstellen und konfigurieren Sie SSH-Zertifikate Hadoop benötigt SSH-Zugriff, um seine Knoten zu verwalten, d. H. Entfernte Maschinen und unsere lokale Maschine. Für unsere Einzelknoten-Konfiguration von Hadoop müssen wir daher den SSH-Zugriff auf localhost konfigurieren.

Also müssen wir SSH auf unserem Rechner laufen lassen und konfigurieren, um SSH Public Key Authentication zu erlauben.

Hadoop verwendet SSH (um auf seine Knoten zuzugreifen), für die der Benutzer normalerweise ein Kennwort eingeben muss. Diese Anforderung kann jedoch durch Erstellen und Einrichten von SSH-Zertifikaten mithilfe der folgenden Befehle behoben werden. Wenn Sie nach einem Dateinamen gefragt werden, lassen Sie diesen einfach leer und drücken Sie die Eingabetaste, um fortzufahren.

Überprüfen Sie diese Website

    
bun 21.08.2015 13:23
quelle
-1

Melden Sie sich als Superuser oder Root an

%Vor%

gib dem Benutzer die Erlaubnis

%Vor%

für Ihren Beispiel-Login-Benutzer: munichong

HADOOP_HOME = /usr/local/hadoop/

    
user3029620 14.10.2016 19:44
quelle

Tags und Links