distributed

Mehrere Computer arbeiten zusammen und verwenden ein Netzwerk zur Kommunikation
4
Antworten

Gibt es eine Standard-Synchronisierungslösung für Java?

Wir haben ein großes Hochleistungs-Softwaresystem, das aus mehreren interagierenden Java-Prozessen (nicht EJBs) besteht. Jeder Prozess kann sich auf demselben Computer oder auf einem anderen Computer befinden. Bestimmte Ereignisse werden in e...
02.06.2009, 13:42
2
Antworten

Wie skalierbar sind automatische Sekundärindizes in Cassandra 0.7?

Soweit ich weiß, werden für die lokalen Daten der Knoten automatische Sekundärindizes generiert. In diesem Fall beinhalten die Abfragen nach sekundärem Index alle Knoten, die einen Teil der Spaltenfamilie speichern, um Ergebnisse (?) zu erhal...
21.02.2011, 16:10
1
Antwort

Ausführen Identisches Modell auf mehreren GPUs, aber Senden verschiedener Benutzerdaten an jede GPU

Jeder hat Erfolg mit effizienter Datenparallelität, bei der Sie die identische Modelldefinition an mehrere GPUs senden, aber unterschiedliche Benutzerdaten an jede GPU senden? Es sieht so aus, als wäre Dist-Keras vielversprechend. aber ich wü...
08.01.2018, 07:25
2
Antworten

Gebäude mit mehreren Maschinen

Ich habe ein großes Windows C ++ - Projekt, das viel Zeit in Anspruch nimmt, um kompiliert zu werden. Weißt du, ob es ein KOSTENLOSES Tool gibt, das mit mehreren miteinander verbundenen PCs erstellt werden kann? Weißt du, ob es unter Linux mi...
17.08.2010, 12:49
1
Antwort

Gibt es ein stark konsistentes Gruppenmitgliedschaftsprotokoll?

Ich suche nach einem Algorithmus, bei dem Gruppen verbundener Knoten zu einer neuen Gruppe zusammengeführt werden können (indem Verknüpfungen zwischen Knoten aus verschiedenen Gruppen erstellt werden). Und wo eine Gruppe partitioniert werden kan...
07.10.2016, 14:41
3
Antworten

Distributed Tensorflow: gutes Beispiel für synchrones Training auf CPUs

Ich bin neu im verteilten Tensorflow und suche ein gutes Beispiel für das synchrone Training auf CPUs. Ich habe bereits das Beispiel Distributed Tensorflow ausprobiert und kann das asynchrone Training erfolgreich über einen Parameterserve...
23.12.2016, 00:23