碰撞熵被定义为案例 $ \ alpha= 2 $ 的renyi熵。它由

给出

$$ \ mathrm {h} _ {2}(x)= - \ log \ sum_ {i= 1} ^ {n} p_ {i} ^ {2} \标签{1} $$

占用两个随机变量 $ x $ $ x'$ ,它遵循相同的概率分布。然后,碰撞的概率是简单的 $ p _ {\ rm coll}=sum_ {i= 1} ^ {n} p_ {i} ^ {n} $ 。然后,我希望我们说碰撞熵只是 $ h(p _ {\ rm coll})$ i.e。

$$ - \ left(\ sum_ {i= 1} ^ {n} p_ {i} ^ {2} \ revely)\ log \ left(\ sum_ {i= 1} ^ {n} p_ {i} ^ {2} \右) - \ left(1 - \ sum_ {i= 1} ^ {n} p_ {i} ^ {2} \ revaly)\ log \ left (1- \ sum_ {i= 1} ^ {n} p_ {i} ^ {2} \ revaly)$$

这与二元熵相比,但概率替换了碰撞的概率。

选择 $(1)$ 的动机是什么?

有帮助吗?

解决方案

$ x $ 均匀地分布在大小域中 $ n $ ,然后shannon熵,碰撞熵和min熵都等于 $ \ log n $ 。从某种意义上说,所有这些参数都会测量<跨度类=“math-container”> $ x $ 的不确定性量。

相比之下,您所提出的定义始终介于 $ 0 $ $ 1 $ 之间,趋于零 $ x $ 变得更加不可预测。这与其他熵的其他概念完全不同,其中零代表可预测

许可以下: CC-BY-SA归因
不隶属于 cs.stackexchange
scroll top