next up previous
: 練習問題 : エントロピー(平均情報量) : エントロピーとは

エントロピーの定義


\begin{displaymath}
H=- \sum_{i=1}^{n} p_n\cdot \log_2 p_n
\end{displaymath}

(要するに各事象の情報量の確率による重み付け平均。文字どおり平均情報 量。とても、簡単。)

ただし上式において $p_i=0$のときは、 $p_i\cdot\log_2 p_i = 0$と 計算する。( $\lim_{p\rightarrow 0} p\log p=0$と考えれば良い。)


Hiroyuki Kobayashi 平成25年12月23日