マルコフ情報源のエントロピー Entropy of Markov source |
2つのアルファベット A と B を出力する単純マルコフ (Andrei Andreyevich Markov, 1856-1922) 情報源がもっとも簡単な例です。 まず、この例でエントロピーを計算してみましょう。 遷移図は下のように描くことができます。 A の次にまた A が出る確率=1-p A が出力されたことを知った後で、次のアルファベットを読むときに得る情報量の平均(条件付エントロピー)は です。 同様に、B が出力されたことを知った後で、次のアルファベットの条件付エントロピーは です。 これらのエントロピーをそれぞれ A と B の頻度で平均したものが求めるエントロピーになります。 A と B の頻度(定常確率)は、連立方程式 を解いて、
となるので、エントロピーは次のようになります。 次に、この定常確率でアルファベットが無記憶に出力されるような情報源を仮想してみましょう。 これを随伴情報源と呼んでいます。 随伴情報源はマルコフ性(規則性)を失っていますから、そのエントロピー は元のマルコフ情報源に比べて大きいはずです。 すなわち、 がいえるはずです。 一般的な証明は省きますが、たとえば、遷移を対称 となり、
であることがわかります。 次に、上の話を一般化してみます。 長さ m のアルファベットの綴りはたくさんありますが、それらに番号
の情報を得ます。 したがって、 はブロック このエントロピーはブロック長 m を大きくすればするほど、情報源のエントロピーを正確に近似することは明らかです。 上の式でエントロピーを計算するには、条件付き確率 から、 が成り立ちます。 これを上のエントロピー が得られます。 右辺第1項は、マルコフ情報源から出力される文章を、長さ m+1
の綴りを独立に出力しているとみなした (m+1)次拡大随伴情報源のエントロピーを意味しており、単位は
ビット/(m+1)文字 です。 同様に、第2項はm次随伴情報源のエントロピーであり、単位は
ビット/m文字 です。ブロックの定常確率は、ブロック間の遷移確率
の解です。 が得られます。 これは、シャノンが英文のエントロピーを計算する論文で導いた結果です。 すなわち、長さ m+1 の綴りの頻度表と長さ m の綴りの頻度表があれば、それらの綴りが独立に生起するとした随伴情報源のエントロピーの差でマルコフ情報源のm次近似が計算できることを表しています。 さらに、この近似は単調に真のエントロピーに近似するはずですから、 が成立します。 実際の統計データは、綴りの頻度(上の連立方程式の解 |