Pregunta

En una implementación de GPU necesitamos estimar su rendimiento en términos de GLOP. El código es muy básico, pero mi problema es cuántos fracasos debo dar a las operaciones "sqrt" o "locos", ya sea 1 o más.

Además, obtengo 50 GFLOP para mi código si 1 digo 1 flop para estas operaciones, mientras que el máximo teórico para esta GPU es de 500GFLOPS. Si lo expreso en prestados, obtengo el 10 %. En términos de aceleración, obtengo 100 veces. Así que creo que es genial, pero el 10% parece ser un poco de bajo rendimiento, ¿qué piensas?

Gracias

No hay solución correcta

Licenciado bajo: CC-BY-SA con atribución
No afiliado a StackOverflow
scroll top