Transcript 情報とエントロピー
情報システム工学Ⅰ 宿題2 J4497023 加藤 保昌 情報とエントロピー 確率Pと情報量nとの関係 情報量: 〇基本単位量を“二者択一の質問から得られる情報量”と定義し、 それを1「ビット」と定めた。 4 3.5 四 者 択 一 を す る に 必 要 な 情 報 量 は , 2「 ビ ッ ト 」 八者択一をするに必要な情報量は,3「ビット」 3 二のn乗者択一をするに必要な情報量は,n「ビット」 x 者 択 一 を す る に 必 要 な 情 報 量 を 、 n 「 ビ ッ ト 」 と す る と 、、 n 2 =x n = log X 2 となる。 情報量を確率の側面から考える: ある確率Pで起こる事象が、実際に起こったことを知ったときに 情報量n ↓ 2.5 2 1.5 1 0.5 得られる情報量nは次式で与えられる。 0 n = log 21 /P = log 2 1 – log 2P = ― log P 「 ビ ッ ト 」 2 0 0.2 0.4 0.6 確率P 0.8 1 確率PとエントロピーHとの関係 1 “ 予 想 の つ け に く さ の 尺 度 ”、“ 不 確 か さ を あ ら わ す 量 ” と 定 義 し た 。 数 式 で 示 す と 、 2 種 類 の 事 象 E 1、 E 2 を 考 え る 。 E1 の生じる確率=P E2 の生じる確率=1-P この場合のエントロピーHは、次式で与えられる。 H = P log 2 1 /P + (1 – P )log 2 1 /(1 – P ) = - P log 2 1 /P - ( 1 - P ) log 2( 1 ‐ P ) [ビ ッ ト ] エ ントロピー H ( ビッ ト) 0.9 エントロピー: 0.8 0.7 0.6 0.5 0.4 0.3 0.2 0.1 0 0 事象がn種類ある場合のエントロピーHを求める 互 い に 排 反 事 象 で あ る n 種 類 の 事 象 E 1、 E 2、 ‥ ‥ ‥ 、 E n を 想 定 す る 。 そ し て 各 事 象 の 起 き る 確 立 を P 1、 P 2、 ‥ ‥ ‥ 、 Pn と 定 義 す る 。 このとき、エントロピーH は次式で与えられる。 H = - P 1 log P 2‥ ‥ ‥ ‥ - P n log 2 P n 2 P 1 - P 2 log 2 = - Σ P ilog 2 P i [ビ ッ ト ] 注 : P 1 = P 2 = P 3 = ‥ ‥ ‥ = P n = 1 /n の と き 、 エ ン ト ロ ピ ー H は 最 大 と な る 。 0.5 確率P 1 確 率 と 情 報 量 : ①条件付き確率とは、 P (B | A )‥ ‥ ‥ A な る 事 象 が 起 こ っ た と い う 条 件 で , B という事象が起こる確立のこと。 ② 結合確率とは、 P (A ∩ B )‥ ‥ ‥ 事 象 A と 事 象 B が 同 時 に 起 こ る 確 立 の こ と 。 事象Aと事象Bとが互いに独立事象の場合 P (A ∩ B )= P (A )・ P (B ) となる。 ①,②の間には ま た 、P (B | A )の 値 が 分 か っ た と き に P (A ∩ B )= P (A )・ P (B | A )= P (B )・ P (A | B ) 得られる情報量を、条件付き情報量と い い 、 n (B | A )と 書 く 。 が成り立つ。 相互情報量: “ 事 象 A が 起 こ る ”と い う 情 報 に 関 し て 、“ 事 象 B が 起 こ る ” という情報が寄与した情報量のこと。 n (A ; B )= n (A )- n (A |B ) [ビ ッ ト ] と、表示する。 平均相互情報量: 各 情 報 源 A ,B の 平 均 情 報 量 に 関 す る も の で 、 エントロピーで表現される。 2種類の事象系に関するエントロピーの関係 2 種 類 の 事 象 系 E と 、S の お の お の の エ ン ト ロ ピ ー を H (E )お よ び H (S )と す る 。さ ら に こ の 2 種 類 の 事 象 系 E と S の 結 合 系 の 結 合 エ ン ト ロ ピ ー を H (E ,S )と し 、 条 件 付 き エ ン ト ロ ピ ー を H (E | S )と す る と 、 H (E ,S )= H (S )+ H ( E | S ) ま た 平 均 相 互 情 報 量 を n (S ;E )と す る と n (S ;E )= H (E )+ H (S )- H (E ,S ) = H (E )- H (E | S ) が成立する。 H(E) H(E|S) H(S) H(S|E) n(S;E) H(E,S)