cuda

CUDA ist eine parallele Rechenplattform und ein Programmiermodell für Nvidia GPUs (Graphics Processing Units). CUDA bietet eine Schnittstelle zu Nvidia-GPUs über eine Vielzahl von Programmiersprachen, Bibliotheken und APIs.
1
Antwort

Ändern der Registrierung, um die GPU-Zeitüberschreitung zu erhöhen, Windows 7

Ich versuche das Zeitlimit auf der GPU von der Standardeinstellung von 2 Sekunden auf etwas länger zu erhöhen. Ich fand den folgenden Link , aber er erscheint in Windows 7 etwas anders, als ich nicht sehen kann alles, was auf der Webseite erwäh...
19.06.2013, 08:40
3
Antworten

Bilineare Interpolation in C / C ++ und CUDA

Ich möchte das Verhalten der CUDA-bilinearen Interpolation auf der CPU emulieren, aber ich fand, dass der Rückgabewert von tex2D nicht zur bilineare Formel . Ich schätze, dass die Interpolationskoeffizienten von float auf 9 -Bit-Fes...
15.01.2014, 03:44
2
Antworten

Die verschiedenen Adressierungsmodi von CUDA Texturen

Ich verwende eine CUDA-Textur im Grenzadressierungsmodus ( cudaAddressModeBorder ). Ich lese Texturkoordinaten mit tex2D<float>() . Wenn die Texturkoordinaten außerhalb der Textur liegen, gibt tex2D<float>() 0 zurück. Wi...
26.09.2013, 06:31
4
Antworten

c ++ Version wird von cuda 5.0 unterstützt

Ich kann nicht herausfinden, welche Version / welche Konzepte von C ++ von CUDA 5.0 unterstützt werden. Ich konnte keine Informationen in der Programmieranleitung oder im Referenzhandbuch finden, die mit der CUDA 5.0 RC geliefert wurden. Vor all...
22.08.2012, 13:05
2
Antworten

CUDA: Unterschied zwischen CPU-Timer und CUDA-Timer-Ereignis?

Was ist der Unterschied zwischen der Verwendung eines CPU-Timers und des CUDA-Timer-Ereignisses , um die Zeit zu messen, die für die Ausführung eines CUDA-Codes benötigt wird? Welche sollte ein CUDA-Programmierer verwenden und warum? Die V...
29.04.2011, 06:44
2
Antworten

In welchen Arten von Schleifen ist es am besten, die Anweisung #pragma unroll in CUDA zu verwenden?

In CUDA ist es möglich, Schleifen mit der Anweisung #pragma auszurollen, um die Leistung durch Erhöhen der Parallelität auf Befehlsebene zu verbessern. Auf das #pragma kann optional eine Zahl folgen, die angibt, wie oft die Schleife entrol...
04.11.2012, 19:43
1
Antwort

Warum scheint CudaFree nicht die Erinnerung zu befreien?

Ich versuche, Gerätespeicher zuzuordnen, kopiere es, führe die Berechnungen auf der GPU durch, kopiere die Ergebnisse zurück und gebe dann den zugewiesenen Gerätespeicher frei. Ich wollte sicherstellen, dass ich das Limit nicht überschreiten wür...
01.05.2012, 07:23
2
Antworten

Gibt es eine Strafe für die Verwendung von char-Variablen in CUDA-Kernel?

Ich erinnere mich, dass ich den Hinweis bekommen habe, dass ich vermeiden sollte, Chars in CUDA-Kernen zu verwenden, weil die SMs 32-Bit-Ganzzahlen mögen. Gibt es eine Geschwindigkeitsbeschränkung für die Verwendung? Zum Beispiel, ist es langsam...
18.11.2014, 11:35
2
Antworten

Reine funktionale Programmierung für die GPU [geschlossen]

Ich wollte mit funktionalem Code herumspielen und dachte mir, was es Spaß machen würde, ein interaktives Echtzeit-Ray-Tracing einiger zufällig zusammengesetzter Funktionen durchzuführen. Kennt irgendjemand irgendeinen Compiler oder Konverter, de...
20.09.2012, 09:43
2
Antworten

Mehrere Host-Threads, die einzelne CUDA-Kernel starten

Für meine CUDA Entwicklung verwende ich eine Maschine mit 16 Kernen und 1 GTX 580 GPU mit 16 SMs. Für die Arbeit, die ich mache, plane ich 16 Host-Threads (1 auf jedem Kern) und 1 Kernel-Start pro Thread, jeweils mit 1 Block und 1024 Threads. Me...
06.09.2012, 05:56