hadoop

Hadoop ist ein Apache-Open-Source-Projekt, das Software für zuverlässiges und skalierbares verteiltes Computing bereitstellt. Das Projekt selbst enthält eine Vielzahl anderer ergänzender Ergänzungen.
1
Antwort

hadoop Protokollnachricht war zu groß. Kann bösartig sein. Verwenden Sie CodedInputStream.setSizeLimit (), um das Größenlimit zu erhöhen

Ich sehe das in den Logs der Daten. Dies geschieht wahrscheinlich, weil ich 5 Millionen Dateien in hdfs kopiere: %Vor% Ich benutze nur hadoop fs -put .... um die Dateien in hdfs zu kopieren. Kürzlich fing ich an, diese Art von Nachrichten au...
30.06.2015, 14:03
1
Antwort

So interpretieren Sie MapReduce-Leistungsindikatoren

Um genauer zu sein: In Task-Zählern ist die verbrauchte CPU von utime + stime von proc / stat, was bedeutet, dass Dinge wie IOWait nicht gezählt werden. Ist das richtig? Die verstrichene Zeit für die gesamte Task ist viel länger als die CP...
29.06.2015, 11:31
1
Antwort

Der Hive-Identitätswechsel funktioniert nicht mit dem benutzerdefinierten Authentifikatoranbieter

Ich habe einen benutzerdefinierten Authentifikator-Provider entwickelt und alles scheint in Bezug auf die Authentifizierung OK: HiveServer2 startet gut und authentifizierte Verbindungen werden ordnungsgemäß validiert. Sogar einfache Hive-Abfrage...
01.03.2017, 09:45
1
Antwort

URI konnte nicht mit dem Schlüssel dfs.encryption.key.provider.uri gefunden werden, um einen Schlüsselprovider in HDFS-Verschlüsselung für CDH 5.4 zu erstellen

CDH-Version: CDH5.4.5 Problem: Wenn die HDFS-Verschlüsselung mithilfe von in Hadoop CDH 5.4 verfügbarem KMS aktiviert ist, wird beim Ablegen der Datei in die Verschlüsselungszone ein Fehler angezeigt. Schritte: Schritte zur Verschlüssel...
09.09.2015, 10:07
1
Antwort

Hadoop: NullPointerException beim Weiterleiten an den Jobverlaufsserver

Ich habe einen Hadoop-Cluster (HDP 2.1). Alles hat lange funktioniert, aber plötzlich haben die Jobs begonnen, den folgenden wiederkehrenden Fehler zurückzugeben: %Vor% Googeln ein bisschen, ich habe diese Probleme gesehen: Ссылка С...
13.10.2016, 14:48
1
Antwort

könnte die Hauptklasse org.apache.nutch.crawl.InjectorJob finden oder laden

Ich verwende Linux mit Hadoop, Cloudera und HBase. Können Sie mir sagen, wie ich diesen Fehler beheben kann? Fehler: could to find or load main class org.apache.nutch.crawl.InjectorJob Der folgende Befehl gab mir den Fehler: %Vor%...
09.03.2015, 09:27
4
Antworten

___ answer26097064 ___

Sie benutzen das Zeug richtig.

Link Während Sie Ihren aktuellen Code ausführen, ist die Ausgabe wie

%Vor%

Warum ist das so, weil

?

Sie geben zwei Schlüssel / Wert-Paare aus.

Erstes Schlüssel / Wert-Paar ist Wert und das zweite Schlüssel-Wert-Paar ist Schlüsseltaste

was ist die richtige? Wert ist 10 und der Schlüssel ist 1

%Vor%     
Verwenden Sie KeyValueTextInputFormat ___ answer23907054 ___

Das Trennzeichen kann unter dem Attributnamen %code% angegeben werden. Das Standardtrennzeichen ist das Registerzeichen %code% . Ändern Sie also in Ihrem Fall die Zeile %code%
zu

%Vor%

und das sollte den Trick machen

    
___ tag123hadoop ___ Hadoop ist ein Apache-Open-Source-Projekt, das Software für zuverlässiges und skalierbares verteiltes Computing bereitstellt. Das Projekt selbst enthält eine Vielzahl anderer ergänzender Ergänzungen. ___ tag123java ___ Java (nicht zu verwechseln mit JavaScript oder JScript oder JS) ist eine universelle objektorientierte Programmiersprache, die für die Verwendung in Verbindung mit der Java Virtual Machine (JVM) entwickelt wurde. "Java-Plattform" ist der Name für ein Computersystem, auf dem Tools zum Entwickeln und Ausführen von Java-Programmen installiert sind. Verwenden Sie dieses Tag für Fragen, die sich auf die Java-Programmiersprache oder Java-Plattform-Tools beziehen. ___ answer21348898 ___

Ich habe gerade versucht, dass %code% Schlüssel und Werte genommen wird, wenn sie eine Registerkarte zwischen ihnen haben, sonst wird es die komplette Zeile als Schlüssel nehmen, und es wird nichts im Wert sein.

Also müssen wir %code% anstelle von %code%

verwenden     
___ tag123mapreduce ___ MapReduce ist ein Algorithmus zur Verarbeitung großer Datasets zu bestimmten Arten von verteilbaren Problemen unter Verwendung einer großen Anzahl von Knoten ___ answer12564836 ___

Die Eingabedatei wird in Schlüsselwertpaare konvertiert und die Kartenfunktion wird für alle diese Paare aufgerufen. Im Falle Ihres Beispiels ist die Eingabe für die Zuordnung ein Schlüssel (der wahrscheinlich 1 ist, da es die Zeilennummer in der Datei ist) und am wichtigsten ist Ihr Wert 1,10 10.

Nun können Sie alles aus Ihrem Mapper ausgeben, das erst nach dem Tauschen und Sortieren aller Ausgaben aus dem Mapper zur Reducer-Klasse der Reducer-Klasse geht.

Wenn Sie also context.write (value) von Ihrem Mapper und von Ihrem Reducer ausgeben, erhalten Sie eindeutige Zeilen aus all Ihren Dateien.

Ich glaube nicht, dass ich erklärt habe, was Sie wollen, aber das ist die grundlegende Sache, die in Hadoop Map-Reduce passiert.

    
___ tag123wordcount ___ Die Wortzahl ist die Anzahl der Wörter in einem Dokument oder einer Textpassage. ___ qstntxt ___

Ich benutze hadoop 1.0.1, um ein Projekt zu machen und ich möchte meine Eingabe .txt-Datei zum "Schlüssel" machen und "Wert" den ich brauche, wie:

Wenn ich eine %code% Datei habe und der Dateiinhalt ist

  

1, 10 10

Ich denke, ich kann "KeyValueTextInputFormat" verwenden und mache "," das Trennungssymbol. Nach der Eingabe ist der Schlüssel "1" und der value ist "10 10" .

Aber das Ergebnis, das ich bekommen habe, ist die ganze Information ist der Schlüssel, der Wert ist leer. Ich weiß nicht, wo das Problem ist.

Bitte geben Sie mir Hilfe, danke!

Dies ist der Beispielcode:

%Vor%     
___

Ich benutze hadoop 1.0.1, um ein Projekt zu machen und ich möchte meine Eingabe .txt-Datei zum "Schlüssel" machen und "Wert" den ich brauche, wie: Wenn ich eine test.txt Datei habe und der Dateiinhalt ist    1, 10 10 Ich denke, ich...
22.09.2012, 02:12
2
Antworten

Pig nicht aggregierte Warnungen Ausgabeort?

%Vor% Debuggen von FIELD_DISCARDED_TYPE_CONVERSION_FAILED Warnungen, aber ich kann anscheinend nirgendwo einzelne Warnungen drucken. Das Deaktivieren der Aggregation über -w oder aggregate.warnings=false switch entfernt die Übersichtsn...
14.12.2011, 19:58
2
Antworten

Wie schreibt man Map / Reduce Aufgaben in Golang?

Ich möchte Hadoop Map / Reduce-Jobs in Go schreiben (und nicht die Streaming API!). Ich habe versucht, hortonworks / gohadoop und colinmarc / hdfs , aber ich sehe immer noch nicht, wie man Jobs real schreibt. Ich habe nach GitHub-Codes ges...
05.08.2015, 12:15
3
Antworten

Hadoop fs sucht nach Blockgröße?

Wie sieht in Hadoop fs die Blockgröße für eine bestimmte Datei aus? Ich war hauptsächlich an einer Befehlszeile interessiert, etwa so: %Vor% Aber es sieht so aus, als ob das nicht existiert. Gibt es eine Java-Lösung?     
07.12.2011, 06:17