Estrai n I più significativi bit non zero da int in c ++ senza loop
-
16-12-2019 - |
Domanda
Voglio estrarre i bit più significativi da un numero intero in C ++ e convertire quei n bit in un numero intero.
Ad esempio
int a=1200;
// its binary representation within 32 bit word-size is
// 00000000000000000000010010110000
.
Ora voglio estrarre le 4 cifre più significative da quella rappresentazione, I.e. 1111
00000000000000000000010010110000
^^^^
.
e convertili di nuovo in un numero intero (1001 in decimale= 9).
Come è possibile con una semplice funzione C ++ senza loop?
Soluzione
Alcuni processori hanno un'istruzione per contare i principali zeri binari di un intero, e alcuni compilatori hanno inserissics per consentire di utilizzare quell'istruzione.Ad esempio, usando GCC:
uint32_t significant_bits(uint32_t value, unsigned bits) {
unsigned leading_zeros = __builtin_clz(value);
unsigned highest_bit = 32 - leading_zeros;
unsigned lowest_bit = highest_bit - bits;
return value >> lowest_bit;
}
.
Per semplicità, ho lasciato i controlli che sono disponibili il numero richiesto di bit.Per il compilatore di Microsoft, l'intrinseco è chiamato __lzcnt
.
Se il tuo compilatore non fornisce quell'intrinsico, e il tuo processore non ha un'istruzione adatta, quindi un modo per contare rapidamente gli zeri è con una ricerca binaria:
unsigned leading_zeros(int32_t value) {
unsigned count = 0;
if ((value & 0xffff0000u) == 0) {
count += 16;
value <<= 16;
}
if ((value & 0xff000000u) == 0) {
count += 8;
value <<= 8;
}
if ((value & 0xf0000000u) == 0) {
count += 4;
value <<= 4;
}
if ((value & 0xc0000000u) == 0) {
count += 2;
value <<= 2;
}
if ((value & 0x80000000u) == 0) {
count += 1;
}
return count;
}
. Altri suggerimenti
Non è veloce, ma (int)(log(x)/log(2) + .5) + 1
ti dirà la posizione del più significativo bit non zero.Finire l'algoritmo da lì è abbastanza semplice.
Questo sembra funzionare (fatto in c # con UINT32 quindi portato così scuse a Bjarne):
unsigned int input = 1200;
unsigned int most_significant_bits_to_get = 4;
// shift + or the msb over all the lower bits
unsigned int m1 = input | input >> 8 | input >> 16 | input >> 24;
unsigned int m2 = m1 | m1 >> 2 | m1 >> 4 | m1 >> 6;
unsigned int m3 = m2 | m2 >> 1;
unsigned int nbitsmask = m3 ^ m3 >> most_significant_bits_to_get;
unsigned int v = nbitsmask;
unsigned int c = 32; // c will be the number of zero bits on the right
v &= -((int)v);
if (v>0) c--;
if ((v & 0x0000FFFF) >0) c -= 16;
if ((v & 0x00FF00FF) >0) c -= 8;
if ((v & 0x0F0F0F0F) >0 ) c -= 4;
if ((v & 0x33333333) >0) c -= 2;
if ((v & 0x55555555) >0) c -= 1;
unsigned int result = (input & nbitsmask) >> c;
.
Assumi che intendesse usare solo per la matematica intera.
Ho usato un codice da @ Link di @ Olicarlesworth, è possibile rimuovere anche i condizionali usando il LUT per trascinamento del codice azzerare lì.