Pregunta

Quiero extraer los n bits más significativos de un número entero en C++ y convertir esos n bits en un número entero.

Por ejemplo

int a=1200;
// its binary representation within 32 bit word-size is
// 00000000000000000000010010110000

Ahora quiero extraer los 4 dígitos más significativos de esa representación, es decir1111

00000000000000000000010010110000
                     ^^^^

y convertirlos nuevamente a un número entero (1001 en decimal = 9).

¿Cómo es posible con una función simple de C++ sin bucles?

¿Fue útil?

Solución

Algunos procesadores tienen una instrucción para contar los principales ceros binarios de un entero, y algunos compiladores tienen instrucciones para permitirle usar esa instrucción.Por ejemplo, usando GCC:

uint32_t significant_bits(uint32_t value, unsigned bits) {
    unsigned leading_zeros = __builtin_clz(value);
    unsigned highest_bit = 32 - leading_zeros;
    unsigned lowest_bit = highest_bit - bits;

    return value >> lowest_bit;
}

Para simplificar, dejé de lado las verificaciones de que el número solicitado de bits está disponible.Para el compilador de Microsoft, el intrínseco se llama __lzcnt.

Si su compilador no proporciona eso intrínseco, y su procesador no tiene una instrucción adecuada, entonces una forma de contar los ceros rápidamente es con una búsqueda binaria:

unsigned leading_zeros(int32_t value) {
    unsigned count = 0;
    if ((value & 0xffff0000u) == 0) {
        count += 16;
        value <<= 16;
    }
    if ((value & 0xff000000u) == 0) {
        count += 8;
        value <<= 8;
    }
    if ((value & 0xf0000000u) == 0) {
        count += 4;
        value <<= 4;
    }
    if ((value & 0xc0000000u) == 0) {
        count += 2;
        value <<= 2;
    }
    if ((value & 0x80000000u) == 0) {
        count += 1;
    }
    return count;
}

Otros consejos

No es rápido, pero (int)(log(x)/log(2) + .5) + 1 le indicará la posición del bit distinto de cero más significativo.Terminar el algoritmo a partir de ahí es bastante sencillo.

Esto parece funcionar (hecho en C # con uint32, entonces, portado, así que disculpas a Bjarne):

        unsigned int input = 1200;
        unsigned int most_significant_bits_to_get = 4;
        // shift + or the msb over all the lower bits
        unsigned int m1 = input | input >> 8 | input >> 16 | input >> 24;
        unsigned int m2 = m1 | m1 >> 2 | m1 >> 4 | m1 >> 6;
        unsigned int m3 = m2 | m2 >> 1;
        unsigned int nbitsmask = m3 ^ m3 >> most_significant_bits_to_get;

        unsigned int v = nbitsmask;
        unsigned int c = 32; // c will be the number of zero bits on the right
        v &= -((int)v);
        if (v>0) c--;
        if ((v & 0x0000FFFF) >0) c -= 16;
        if ((v & 0x00FF00FF) >0) c -= 8;
        if ((v & 0x0F0F0F0F) >0 ) c -= 4;
        if ((v & 0x33333333) >0) c -= 2;
        if ((v & 0x55555555) >0) c -= 1;

        unsigned int result = (input & nbitsmask) >> c;

Me asumí que quiso decir usando solo matemáticas enteras.

Utilicé un código desde el enlace de @ olicharlesworth, también podría eliminar los condicionales usando el código LUT para arrastrar cerroes allí.

Licenciado bajo: CC-BY-SA con atribución
No afiliado a StackOverflow
scroll top