Étrange compilation de l'assemblage en ligne dans LLVM GCC 4.2
-
30-10-2019 - |
Question
J'essaie d'optimiser la macro C suivante:
rotate(v0, v1) a0 = v0, b0 = v1, v0 = a0*c - b0*s, v1 = a0*s + b0*c
où toutes les variables sont double pour le processeur Cortex-A8.
L'assemblage en ligne ressemble à ce qui suit:
__asm__ __volatile__("vmul.f64 %[v0], %[a0], %[c];\n\t"
"vmul.f64 %[v1], %[a0], %[s];\n\t"
"vmls.f64 %[v0], %[b0], %[s];\n\t"
"vmla.f64 %[v1], %[b0], %[c];\n\t"
:[v0]"=w"(v0), [v1]"=w"(v1)
:[s]"w"(s), [c]"w"(c),
[a0]"w"(v0), [b0]"w"(v1)
:);
L'assemblage généré est de la manière suivante:
@ InlineAsm Start
vmul.f64 d13, d13, d9;
vmul.f64 d12, d13, d8;
vmls.f64 d13, d12, d8;
vmla.f64 d12, d12, d9;
@ InlineAsm End
Comme vous pouvez le voir, le compilateur n'utilise que 4 registres au lieu de 6 qui sont nécessaires pour obtenir le résultat correct.
Comment puis-je dire au compilateur dont j'ai besoin de 6 registres?
Pas de solution correcte
Licencié sous: CC-BY-SA avec attribution
Non affilié à StackOverflow