cloudera

Cloudera Inc. ist ein Unternehmenssoftwarehersteller mit Sitz in Palo Alto, der Apache Hadoop-basierte Software und Services anbietet.
6
Antworten

Cluster kann nicht initialisiert werden. Überprüfen Sie Ihre Konfiguration für mapreduce.framework.name und die entsprechenden Serveradressen, indem Sie job2remoteClustr einreichen

Ich habe meinen Cluster kürzlich von Apache Hadoop1.0 auf CDH4.4.0 aktualisiert. Ich habe einen Weblogic-Server in einer anderen Maschine, von wo aus ich Jobs über mapreduce-Client an diesen Remote-Cluster übergebe. Ich möchte immer noch MR1 und...
27.09.2013, 06:21
1
Antwort

BindException in Hadoop auf EC2

Ich versuche, einen Hadoop-Cluster (CDH4) auf EC2-Instanzen einzurichten. Der namenode stürzt immer ab, wenn ich versuche, ihn zu formatieren. Das ist der Fehler, den ich bekomme. %Vor% Die Hosts-Datei sieht so aus %Vor% Kann mir jemand...
12.04.2013, 06:40
2
Antworten

Erhalte eine InterruptedException während der Ausführung von Word Count mapreduce job

Ich habe Cloudera VM Version 5.8 auf meinem Rechner installiert. Wenn ich Word Count MapReduce-Job ausführe, wird unterhalb der Ausnahme ausgelöst. %Vor% Aber der Job wird erfolgreich abgeschlossen. Könnte jemand bitte mir helfen, dies zu lö...
06.09.2016, 14:35
3
Antworten

So führen Sie die HBase-Shell für einen fernen Cluster aus

Ich betreibe HBase im pseudo-verteilten Modus auf meiner Workstation. Wir haben auch HBase auf einem Cluster ausgeführt. Mit der HBase-Shell möchte ich von meiner Workstation aus auf die HBase-Instanz zugreifen, die auf dem Cluster ausgeführt wi...
18.04.2012, 23:16
3
Antworten

Wie kann man das Problem lösen? Datei konnte nur in 0 Knoten anstelle von 1 in Hadoop repliziert werden?

Ich habe einen einfachen Hadoop-Job, der Websites crawlt und sie im HDFS zwischenspeichert. Der Mapper prüft, ob bereits eine URL im HDFS existiert und verwendet sie andernfalls, lädt die Seite herunter und speichert sie im HDFS. Wenn beim He...
03.04.2012, 04:16
7
Antworten

hdfs - ls: Bei lokaler Ausnahme fehlgeschlagen: com.google.protobuf.InvalidProtocolBufferException:

Ich versuche das unten zu verwenden, um meine Wege in hdfs aufzulisten ... %Vor% Hier ist meine / etc / hosts Datei %Vor% Hallo, verwende ich hdfs: //, um meine Verzeichnisse aufzulisten? Ich benutze Couldera 4.3 auf ubuntu 12.04    ...
04.05.2013, 09:57
1
Antwort

Garn achtet nicht auf Garn.nodemanager.resource.cpu-vcores

Ich verwende Hadoop-2.4.0 und meine Systemkonfigurationen sind 24 Kerne, 96 GB RAM. Ich verwende folgende Konfigs %Vor% Capacity Scheduler konfiguriert %Vor% Mit obigen Konfigurationen erwarte ich, dass Garn nicht mehr als 10 Mappe...
29.08.2014, 07:42