Ich versuche, ein großes CNN in TensorFlow zu bauen, und beabsichtige, es auf einem Multi-GPU-System zu betreiben. Ich habe ein "Tower" -System angenommen und die Batches für beide GPUs aufgeteilt, während die Variablen und andere Berechnungen auf der CPU bleiben. Mein System hat 32 GB Speicher, aber wenn ich meinen Code ausführe, bekomme ich den Fehler:
%Vor%Ich habe gesehen, dass der Code funktioniert (wenn auch sehr, sehr langsam), wenn ich CUDA-Geräte auf TensorFlow verstecke und daher nicht cudaMallocHost () ...
verwendeDanke für Ihre Zeit.
Es gibt einige Optionen:
1- reduzieren Sie Ihre Batch-Größe
2- Verwenden Sie Speicherwachstum:
%Vor%3- zuteilen Sie nicht Ihren gesamten GPU Speicher (nur 90%):
%Vor%Tags und Links tensorflow