Извлеките n наиболее значимых ненулевых битов из int в C++ без циклов
-
16-12-2019 - |
Вопрос
Я хочу извлечь n наиболее значимых битов из целого числа в C++ и преобразовать эти n битов в целое число.
Например
int a=1200;
// its binary representation within 32 bit word-size is
// 00000000000000000000010010110000
Теперь я хочу извлечь 4 наиболее значимые цифры из этого представления, т.е.1111
00000000000000000000010010110000
^^^^
и снова преобразуйте их в целое число (1001 в десятичной системе счисления = 9).
Как это возможно с помощью простой функции c++ без циклов?
Решение
Некоторые процессоры имеют инструкцию для подсчета ведущих бинарных нулей целочисленного числа, а некоторые компиляторы имеют Instrinsics, чтобы позволить вам использовать эту инструкцию.Например, используя GCC:
uint32_t significant_bits(uint32_t value, unsigned bits) {
unsigned leading_zeros = __builtin_clz(value);
unsigned highest_bit = 32 - leading_zeros;
unsigned lowest_bit = highest_bit - bits;
return value >> lowest_bit;
}
.
Для простоты я покинул, проверяет, что запрошенное количество битов доступно.Для компилятора Microsoft внутренняя как называется __lzcnt
.
Если ваш компилятор не предоставит, чтобы внутреннее, и вы переработки не имеют подходящей инструкции, то один из способов быстро подсчитать нужные Zeros с двоичным поиском:
unsigned leading_zeros(int32_t value) {
unsigned count = 0;
if ((value & 0xffff0000u) == 0) {
count += 16;
value <<= 16;
}
if ((value & 0xff000000u) == 0) {
count += 8;
value <<= 8;
}
if ((value & 0xf0000000u) == 0) {
count += 4;
value <<= 4;
}
if ((value & 0xc0000000u) == 0) {
count += 2;
value <<= 2;
}
if ((value & 0x80000000u) == 0) {
count += 1;
}
return count;
}
. Другие советы
Это не быстро, но (int)(log(x)/log(2) + .5) + 1
сообщит вам положение наиболее значимого ненулевого бита.Завершение работы с алгоритмом оттуда довольно прямолинейно.
Это кажется, работает (сделано в C # с uint32, а затем портирован так извинения в bjarne):
unsigned int input = 1200;
unsigned int most_significant_bits_to_get = 4;
// shift + or the msb over all the lower bits
unsigned int m1 = input | input >> 8 | input >> 16 | input >> 24;
unsigned int m2 = m1 | m1 >> 2 | m1 >> 4 | m1 >> 6;
unsigned int m3 = m2 | m2 >> 1;
unsigned int nbitsmask = m3 ^ m3 >> most_significant_bits_to_get;
unsigned int v = nbitsmask;
unsigned int c = 32; // c will be the number of zero bits on the right
v &= -((int)v);
if (v>0) c--;
if ((v & 0x0000FFFF) >0) c -= 16;
if ((v & 0x00FF00FF) >0) c -= 8;
if ((v & 0x0F0F0F0F) >0 ) c -= 4;
if ((v & 0x33333333) >0) c -= 2;
if ((v & 0x55555555) >0) c -= 1;
unsigned int result = (input & nbitsmask) >> c;
.
Я предполагал, что вы имели в виду, используя только целочисленную математику.
Я использовал какой-то код из ссылки @ Olicharlesworth, вы могли бы также удалить условные условные данные, используя LUT для кода Training Zeroes.