Da der eine oder andere hier eine high-end Graka verbaut hat die CUDA, OpenCL etc. kann, hat sich vielleicht schon jemand mit general purpose berechnungen auf der Grafikkarte befasst.
Ich bastle momentan an einem Projekt bei dem ich mir nicht sicher bin ob sich das Auslagern gewisser Berechnungen auf die Grafikkarte lohnen würde, da sich die Berechnungen nur widerspenstig parallelisieren lassen. Daher versuche ich nun abzuschätzen ob sich das lohnen könnte.
Ich habe noch keine Erfahrungen mit der Programmiererei auf GraKas und frage daher, ob hier jemand eine gute Einführung ins Thema kennt? Ich kann C, C++, C# und VB programmieren. Mein primäres Interesse geht an die Datentypen, die Performance, sprich Latenz von Berechnungen, wie lange dauert eine Multiplikation, wie lange dauert eine Addition, etc. , kann ich einen uint64 erstellen, wie siehts mit Bitshifting aus, mit & | ^ und so weiter, wie stehts mit Latenz zum Speicher hin und her kopieren, Zugriff auf shared memory, private memory aus,...?
Bevor hier jemand http://www.google.com postet, danke, das kenn ich
Ich suche eben nicht nur irgend eine Einführung, sondern eine Gute die ungefähr meine Interessen abdeckt, vielleicht kennt ja jemand so was. Dann muss ich mir nicht die Augen an 1'000 schlechten Artikeln fusselig lesen