Domanda

Voglio estrarre i bit più significativi da un numero intero in C ++ e convertire quei n bit in un numero intero.

Ad esempio

int a=1200;
// its binary representation within 32 bit word-size is
// 00000000000000000000010010110000
.

Ora voglio estrarre le 4 cifre più significative da quella rappresentazione, I.e. 1111

00000000000000000000010010110000
                     ^^^^
.

e convertili di nuovo in un numero intero (1001 in decimale= 9).

Come è possibile con una semplice funzione C ++ senza loop?

È stato utile?

Soluzione

Alcuni processori hanno un'istruzione per contare i principali zeri binari di un intero, e alcuni compilatori hanno inserissics per consentire di utilizzare quell'istruzione.Ad esempio, usando GCC:

uint32_t significant_bits(uint32_t value, unsigned bits) {
    unsigned leading_zeros = __builtin_clz(value);
    unsigned highest_bit = 32 - leading_zeros;
    unsigned lowest_bit = highest_bit - bits;

    return value >> lowest_bit;
}
.

Per semplicità, ho lasciato i controlli che sono disponibili il numero richiesto di bit.Per il compilatore di Microsoft, l'intrinseco è chiamato __lzcnt.

Se il tuo compilatore non fornisce quell'intrinsico, e il tuo processore non ha un'istruzione adatta, quindi un modo per contare rapidamente gli zeri è con una ricerca binaria:

unsigned leading_zeros(int32_t value) {
    unsigned count = 0;
    if ((value & 0xffff0000u) == 0) {
        count += 16;
        value <<= 16;
    }
    if ((value & 0xff000000u) == 0) {
        count += 8;
        value <<= 8;
    }
    if ((value & 0xf0000000u) == 0) {
        count += 4;
        value <<= 4;
    }
    if ((value & 0xc0000000u) == 0) {
        count += 2;
        value <<= 2;
    }
    if ((value & 0x80000000u) == 0) {
        count += 1;
    }
    return count;
}
.

Altri suggerimenti

Non è veloce, ma (int)(log(x)/log(2) + .5) + 1 ti dirà la posizione del più significativo bit non zero.Finire l'algoritmo da lì è abbastanza semplice.

Questo sembra funzionare (fatto in c # con UINT32 quindi portato così scuse a Bjarne):

        unsigned int input = 1200;
        unsigned int most_significant_bits_to_get = 4;
        // shift + or the msb over all the lower bits
        unsigned int m1 = input | input >> 8 | input >> 16 | input >> 24;
        unsigned int m2 = m1 | m1 >> 2 | m1 >> 4 | m1 >> 6;
        unsigned int m3 = m2 | m2 >> 1;
        unsigned int nbitsmask = m3 ^ m3 >> most_significant_bits_to_get;

        unsigned int v = nbitsmask;
        unsigned int c = 32; // c will be the number of zero bits on the right
        v &= -((int)v);
        if (v>0) c--;
        if ((v & 0x0000FFFF) >0) c -= 16;
        if ((v & 0x00FF00FF) >0) c -= 8;
        if ((v & 0x0F0F0F0F) >0 ) c -= 4;
        if ((v & 0x33333333) >0) c -= 2;
        if ((v & 0x55555555) >0) c -= 1;

        unsigned int result = (input & nbitsmask) >> c;
.

Assumi che intendesse usare solo per la matematica intera.

Ho usato un codice da @ Link di @ Olicarlesworth, è possibile rimuovere anche i condizionali usando il LUT per trascinamento del codice azzerare lì.

Autorizzato sotto: CC-BY-SA insieme a attribuzione
Non affiliato a StackOverflow
scroll top