문제
Collision Entropy는 $ \ alpha= 2 $ 의 경우에 대한 Renyi 엔트로피로 정의됩니다.
에 의해 주어진다$$ \ mathrm {h} _ {2} (x)= - \ log \ sum_ {i= 1} ^ {n} p_ {i} ^ {2} \ 태그 {1} $$
동일한 확률 분포를 따르는 $ x $ 및 $ x '$ 을 찍는 것. 그런 다음 충돌의 확률은 단순히 $ p _ _ \ rm 콜}=sum_ {i= 1} ^ {2} $ ...에 그런 다음 콜리스 엔트로피가 $ h (p _ {\ rm coll}) $ i.e.e.
이라고 기대할 것으로 예상합니다.$$ - \ 왼쪽 (\ sum_ {i= 1} ^ {2} p_ {i} ^ {2} \ right) \ log \ left (\ sum_ {i= 1} ^ {n} p_ \ {n} \ \ left) - \ left (1 - \ sum_ {i= 1} ^ {n} p_ {i} ^ {2} \ 오른쪽) \ log \ left (1- \ sum_ {i= 1} ^ {n} p_ {i} ^ {2} \ right) $$
이것은 바이너리 엔트로피와 비슷하지만 확률이 충돌 할 확률로 대체 된 것으로 나타납니다.
$ (1) $ 을 선택하는 동기는 충돌 엔트로피의 정의가되도록 무엇입니까?
해결책
$ x $ 은 크기 $ n $ 의 도메인 위에 균일하게 배포됩니다. 그런 다음 Shannon Entropy, 충돌 엔트로피 및 최소 엔트로피는 $ \ log n $ 과 같습니다.의미에서 이러한 모든 매개 변수는 $ x $ 의 불확실성의 양을 측정합니다.
대조적으로, 제안 된 정의는 $ 0 $ 및 $ 1 $ 사이에 있습니다. $ x $ 은 예측할 수 없게됩니다.이것은 엔트로피의 다른 개념과 매우 다르며, 0은 예측 가능한 에 대한 약자가 있습니다.