Wie man Keras mit Theano aktiviert, um mehrere GPUs zu verwenden

8

Setup:

  • Verwenden eines Amazon Linux-Systems mit einer Nvidia-GPU
  • Ich benutze Keras 1.0.1
  • Ausführen von Theano v0.8.2-Back-End
  • Verwenden von CUDA und CuDNN
  • THEANO_FLAGS="Gerät = gpu, floatX = float32, lib.cnmem = 1"

Alles funktioniert gut, aber ich habe bei großen Modellen keinen Videospeicher mehr zur Verfügung, wenn ich die Stapelgröße vergrößere, um das Training zu beschleunigen. Ich denke, der Wechsel zu einem 4-GPU-System würde theoretisch entweder den verfügbaren Gesamtspeicher verbessern oder es kleineren Builds erlauben, schneller zu bauen, aber wenn ich die NVIDIA-Statistiken beobachte, kann ich nur einen GPU standardmäßig verwenden:

%Vor%

Ich weiß mit rohen Theano können Sie manuell mehrere GPUs explizit verwenden. Unterstützt Keras die Verwendung mehrerer GPUs? Wenn ja, abstrahiert es oder müssen Sie die GPUs den Geräten zuordnen, wie in Theano, und explizit Berechnungen mit bestimmten GPUs durchführen?

    
Ray 02.05.2016, 22:20
quelle

1 Antwort

4

Multi-GPU-Training ist experimentell ("Der Code ist ziemlich neu und wird immer noch als experimentell betrachtet Dieser Punkt wurde getestet und scheint in allen beobachteten Fällen korrekt zu funktionieren, aber überprüfe deine Ergebnisse, bevor du ein Papier oder ähnliches veröffentlichst. ") und wurde bisher noch nicht in Keras integriert. Sie können jedoch mehrere Grafikprozessoren mit Keras mit dem Tensorflow-Backend verwenden: Ссылка .

    
1'' 11.05.2016, 07:26
quelle

Tags und Links