كيف يمكنني استخدام GPU الثاني المعالج في .الشبكة ؟

StackOverflow https://stackoverflow.com/questions/470569

  •  19-08-2019
  •  | 
  •  

سؤال

السؤال يقول كل شيء حقا.أتمنى أن لا تضطر إلى كتابة التعليمات البرمجية في c++ .dll ثم يدعونه من التعليمات البرمجية المدارة.

هل كانت مفيدة؟

المحلول

ومع غوغلينغ سريعة، لقد وجدت هذا دعا مسرع. لها مشروع أبحاث مايكروسوفت < وأ href = "http://research.microsoft.com/en-us/projects/Accelerator/" يختلط = "نوفولو noreferrer"> وجدت هنا .

نصائح أخرى

يمكنك كتابة رمز GPU فقط باستخدام التظليل اللغة.كل من التظليل اللغات المناسبة اللغات (ليس C++.NET languages أو أي شيء آخر) من تلقاء نفسها ولكن هي مشابهة جدا ل C++.

الأكثر شيوعا التظليل اللغات هي:

  • GLSL (OpenGL)

  • Cg (nVidia التظليل لغة متوافقة مع directX و OpenGL)

  • HLSL (microsoft التظليل لغة directX).

تحتاج إلى كتابة التعليمات البرمجية التي تريد تشغيلها على GPU في التظليل اللغة ثم حيوي تجميع و تحميل GPU.رمز تستخدمه بشكل حيوي تجميع و تحميل عادة أي رمز يدعم directX/OpenGL الاشياء (هناك Java, .NET و C++ برمجة التطبيقات بقدر ما أعرف - معظم الناس تستخدم C++ على الرغم من ذلك معظم عينات ستجد سوف يكون مكتوب في C++).

وشيء واحد استطيع ان اقول لكم لعلى يقين: اعتبارا من ديسمبر من عام 2008، نفيديا و ATI لم تمكنت الطبقات لوحدات معالجة الرسومات الخاصة بهم. أنا لا أعرف إذا كان لديهم خطط لهذا في أي وقت قريب.

CUDAfy

ويتيح لك رمز في C # و ترجمته إلى CUDA C ++ بالنسبة لك، بشكل ثابت أو حيوي. أنها لا تعمل بشكل جيد في معظم الوقت، ولكن الأمور أكثر تعقيدا يمكن أن يكون صعبا دون إجراء تغييرات مباشرة إلى المكتبة. قد تحسنت منذ كنت عليه. وكنت أيضا تحت انطباع بأن OpenCL كان من المقرر أن تدعمها في مرحلة ما.

مرخصة بموجب: CC-BY-SA مع الإسناد
لا تنتمي إلى StackOverflow
scroll top