アナログ情報源のエントロピー Entropy of analog signal |
まず、アナログ信号 を 秒間隔でサンプリングします。 k番目のサンプル値 を で表し、この時系列を で表します。 この時系列を滑らかにつないでいた元の連続波形は捨てられてしまいます。 でも、もし次の標本化定理が満たされていれば、上の時系列からアナログ信号 を正確に復元することができます。 標本化定理 この標本化定理が満たされているとき、サンプリング系列は元のアナログ信号の情報をなにも失っていません。 したがって、 サンプルされた値 は連続的な値をとり得ます。 したがって、情報を測るで定義したような、シンボルに対する情報量をそのまま適用することができません。 実際、連続値をいくらでも正確にとることができれば、平均情報量は無限大になってしまいます。 しかし、我々が観測できる信号値はなんらかの不確定性をもっています。 それは、情報源の確率的不確定性であったり、工学的にAD変換したものであったりします。 まずは、いずれかの不確定性を導入して処理する必要が生じます。 そこで、サンプル値 を量子化するAD変換を想定します。 量子化の幅をで表わし、区間の中央値 でサンプル値を近似します。 の確率密度関数を とすると、十分細かい量子化のもとでは、中央値 の生起確率は近似的に で与えられるので、この中央値を受けたときの情報量は
のようになります。 ここで、右辺第2項は量子化の幅 だけに依存しています。
(A) 無記憶アナログ情報源のエントロピー
が独立であり、常に同じ確率分布に従うとします。 このような時系列を I.I.D (Indendent Identically Didtributed ) と呼んでいます。 帯域が に制限されているとき、1秒間の時系列の長さの最大を にすることができます。 各サンプル値を量子化して得られる中央値の列は、シンボルを出力する無記憶情報源から発生したとみなせるので、エントロピーは、 と書けます。 ここで、右辺第2項は としたとき、無限大になってしまいます。 そこで、この項を次のように処理します。 右辺第2項は量子化幅のみに依存し、信号には依存しない。 を無限に小さくしたときのエントロピーは、
となります。 すなわち、これを、連続的な値をもつサンプル値系列 のエントロピーと定義します。 以下は、典型的なI.I.D系列のエントロピーです。 < 一様分布する無記憶アナログ情報源 > となり、単に区間幅 に依存します。 注1: が大きくなるとエントロピーも大きくなりますが、 で になってしまいます。 次の例でも同じです。 これらのことは、連続分布をイメージすると、どう解釈してよいか判然としません。 この矛盾は量子化の項 を無視したところで起こりました。 ただし、エントロピーの差 を評価するとき、は打ち消しあうのでこの矛盾は解消します。 相互情報量あるいは通信路容量を扱う場合は、この項が打ち消しあうので、直感的な理解が可能になります。 <正規分布する無記憶アナログ情報源> この分布は、いろんな分野で頻繁に登場します。 元のアナログ信号との間で標本化定理が満たされているとき、帯域制限されたガウス雑音のモデルとして計算機シミュレーションなどで広く用いられます。 実は、ガウス雑音は無限区間を前提にした確率分布関数の中で最大エントロピーを与えることがいえます。 すなわち、分散(アナログ信号の電力)が一定であるという拘束条件 のもとで、エントロピーを最大化すると、正規分布(ガウス分布)
になります。 このときのエントロピーは となり、分散 が大きい(信号の電力が大きい)ほどエントロピーは大きくなります。 注2:一様分布と同様に、 のときエントロピーがゼロになります。 (B) マルコフ・アナログ情報源のエントロピー を得ます。 この式を計算することは実際には不可能ですから、近似式を求めます。 マルコフ性がおよぶ過去を と仮定し、この系列をブロック で表すと、ブロック長がm+1のエントロピーを次のように書くことができます。 として、 この結果は、シンボルを扱う情報源の場合と同じ表現です。ここで、 は長さmのブロックがその定常確率で無記憶に発生するとしたときの随伴情報源を意味します。 サンプル値系列を長さmで区切ってブロック化し、 |