mapreduce

MapReduce ist ein Algorithmus zur Verarbeitung großer Datasets zu bestimmten Arten von verteilbaren Problemen unter Verwendung einer großen Anzahl von Knoten
1
Antwort

Nur bestimmtes Feld in PIG laden?

Das ist meine Datei: Col1, Col2, Col3, Col4, Col5 Ich brauche nur Col2 und Col3 . Momentan mache ich das: %Vor% Gibt es eine Möglichkeit, nur Col2 und Col3 direkt zu laden, anstatt die gesamten input und dann gener...
31.12.2013, 14:49
2
Antworten

Unterschied zwischen 3 Speicherparametern in Hadoop 2?

Ich verwende Hadoop 2.0.5 (Alpha), um relativ große Jobs auszuführen, und habe folgende Fehler festgestellt:    Behälter   [pid = 15023, containerID = container_1378641992707_0002_01_000029] ist   über die Grenzen des virtuellen Speichers hin...
09.09.2013, 06:33
3
Antworten

Effiziente Möglichkeit, mehrere Zeilen in HBase zu löschen

Gibt es eine effiziente Möglichkeit, mehrere Zeilen in HBase zu löschen, oder riecht mein Anwendungsfall nicht nach HBase? Es gibt eine Tabelle, die "Diagramm" sagt, die Elemente enthält, die sich in Diagrammen befinden. Zeilenschlüssel haben...
06.01.2011, 19:33
5
Antworten

CouchDB - .NET oder Mono Equivalent Technology

Gibt es aktive "dokumentbasierte" Datenbankprojekte mit .NET oder Mono? Ähnlich wie CouchDB, SimpleDB, LotusNotes, etc ... Open Source bevorzugen. Ich denke, die JScript.NET-Technologie könnte für die Map- und Reduce-Funktionen über gespeiche...
13.01.2009, 02:37
2
Antworten

Warum YARN Java Heap Speicherplatzfehler?

Ich möchte versuchen, Speicher in YARN zu setzen, also werde ich versuchen, einige Parameter auf yarn-site.xml und mapred-site.xml zu konfigurieren. Übrigens benutze ich hadoop 2.6.0. Aber ich erhalte einen Fehler, wenn ich einen mapreduce Job m...
12.03.2015, 04:07
1
Antwort

Spark-Konfiguration: SPARK_MEM vs. SPARK_WORKER_MEMORY

In spark-env.sh ist es möglich, die folgenden Umgebungsvariablen zu konfigurieren: %Vor% Wenn ich einen eigenständigen Cluster damit starte: %Vor% Ich kann auf der Webseite von Spark Master UI sehen, dass alle Arbeiter mit nur 3 GB RAM b...
18.06.2013, 14:35
4
Antworten

MongoDB incremental mapReduce, wählen Sie nur neue Dokumente aus, die nach dem letzten mapReduce hinzugefügt wurden

Nehmen wir an, ich habe eine Sammlung mit Dokumenten, die so aussehen (nur vereinfachtes Beispiel, aber es sollte das Schema zeigen): %Vor% Jetzt muss ich einige Statistiken über diese Sammlung sammeln. Zum Beispiel: %Vor% sammelt die Ge...
17.10.2011, 13:13
2
Antworten

CouchDB Aufrufe: Wie viel Verarbeitung ist akzeptabel in der Karte zu reduzieren?

Ich habe mit MapReduce mit CouchDB herumgespielt. Einige der Beispiele zeigen eine möglicherweise schwere Logik innerhalb der Kartenreduzierungsfunktionen. In einem bestimmten Fall haben sie für Schleifen in der Karte ausgeführt. Wird die Kar...
06.04.2012, 16:27
2
Antworten

Erhalte eine InterruptedException während der Ausführung von Word Count mapreduce job

Ich habe Cloudera VM Version 5.8 auf meinem Rechner installiert. Wenn ich Word Count MapReduce-Job ausführe, wird unterhalb der Ausnahme ausgelöst. %Vor% Aber der Job wird erfolgreich abgeschlossen. Könnte jemand bitte mir helfen, dies zu lö...
06.09.2016, 14:35
2
Antworten

Vollständige Nutzung aller Kerne im pseudo-verteilten Hadoop-Modus

Ich führe eine Aufgabe im pseudo-verteilten Modus auf meinem 4-Kern-Laptop aus. Wie kann ich sicherstellen, dass alle Kerne effektiv genutzt werden? Momentan zeigt mein Job-Tracker an, dass jeweils nur ein Job ausgeführt wird. Bedeutet das, dass...
02.12.2011, 13:47