確率的勾配法等化アルゴリズム    Stochastic gradient equalization algorithm

 これは自乗平均誤差 を最小にするもっとも常套的な等化アルゴリズムです。

img1.gif

ここでは、シンボルレート等化について説明しますが、ダブルサンプリング等化も形式的には同じです。 ただし、ダブルサンプリング固有の収束の遅さの問題が発生するので、これらのことに関しては、高速収束等化で触れることにします。

昔のデータ通信の話になりますが、電話回線用アナログモデムの標準規格(CCITT.Vシリーズ)では、ポーリングシステムを前提にして、次のような規格が勧告されています。

img2.gif

上り回線では、ポーリングされた支店から順次データフレームが送られますが、各支店から本店への回線特性が異なるのでチャンネル歪も異なります。 したがって、本店では各支店ごとに上りの等化が必要になります。 この等化に要する時間がフレーム長に占める割合を小さくすることが重要になってきます。 規格では、データフレームの前に予め決められたランダムデータが送られ、この間に「強制等化(送信シンボルを既知とする等化)」を実行します。 これ以降は、緩慢な歪みの変動に追随するために、判例結果を正しいとし信じて等化器を継続的に調整します。 このモードを「適応等化」とか「仮判定等化」などと呼んでいます。 既知ランダムデータを「トレーニングシーケンス」と呼んでいますが、この同期は直前に送られる繰り返しデータの終わりを検出して知ることができるようになっています。 下り回線では、信号エネルギーを中断しないように、スクランブルされたデータが常に送られています。 各支店は、電源をONにすると、ブラインド等化でリンクを確立しなければなりません。

さて、自乗平均誤差 をオンライン的に最小化したいのですが、時々刻々等化器のタップ係数 を修正することになります。 この修正はオンライン的に実行されるのですが、目標 となる平均自乗誤差 は時間の概念がない「期待値」で与えられています。 期待値という概念は、「何回も何回も乱数を変えて実行したときの平均(集合平均)」といった概念ですから、非常に抽象的です。 我々は、それを物理的に実現することはできず、一回限りのサンプルを実現するのみです。 しかしながら、一回限りの試行を時間的にたどっても一般的な議論はできないので、やはり期待値がどのように振舞うかという視点から一般論を展開することになるわけです。 確率的に振舞う変量が目標に収束することをいうためには、その期待値が目標に収束することに加えて、目標値周辺での揺らぎが小さくなることも保証しなければなりません。 期待値は収束するが、目標周辺で大暴れするようなことも十分考えられるからです。

確率的勾配法等化アルゴリズムは、毎時刻において、

を繰り返します。 これは次のことを予想しています。

 とりあえず、時刻 k の瞬時的自乗誤差を小さくするようにちょっとだけ修正し、
それを繰り返すと、いずれは最適解へ行くのではないか?

2タップの簡単なケースで、この予想を幾何学的に想像してみましょう。 時刻 k での自乗誤差

は、下図のように紙の両端をつまんで持ち上げた形をしています。 紙の底は直線

であり、そこでは最小値をとります。

img3.gif

次の時刻の自乗誤差

も、下図のように紙の両端を持ち上げた曲面ですが、底の直線や勾配が異なります。

img4.gif

上の二つの図を重ねて描くと下のようになっています。

img5.gif

アルゴリズム(*)は、時々刻々、紙の曲面は切り替わるが、その紙に沿って下へ下へと(偏微分と逆の方向へと)、慎重に降りていこうという戦略です。 偏微分と逆方向へ降りることは、その曲面の直線の谷筋を目がけて降りることですが、谷筋がランダムに回転するので、右往左往しながら谷筋の”交点”へ向かうことになりそうです。 しかし、有限長等化器では等化誤差が正確にゼロになることはないので、 を常に満たす”交点”は存在しません。直感的に、どの曲面にも通用しそうな意味での谷底でうろちょろすることになりそうです。

以下、タップ係数が期待値としてどのように収束するかを計算し、実際にシミュレーションで当たってみましょう。 式(*)は具体的に次のように書けます。

以下、次のようなベクトル表現を扱います。

 

ランダムな送信データ に関して期待値をとると、タップ係数ベクトルの期待値 は次の漸化式によって決まります。

ここで、 は受信信号の自己相関行列、 は受信器までのインパルス応答のサンプル値を要素とするベクトルです。  が下の式を満たす最適解に近づくかどうかが問題です。

上の漸化式を、誤差ベクトル で書き換えると次のように簡単になります。

ここで は確定的な初期誤差ベクトルです。 今の場合、自己相関行列の固有値はすべて正なので、これを対角項とする対角行列を で表すと、

のように分解できます。 したがって、

さらに、

とおいて、

のように、最終的にスカラー式に分解できました。 これら、2N+1個のスカラー式について、

が成り立っていれば期待値 が最適解に収束することがいえます。 固有値はすべて正なので、この収束条件を満たす は必ずあります。 もし、負の固有値があると、 をどのように選んでも上の収束条件を満たすことができません。 また、固有値がすべて正であっても、それらが広く分布していると、最大固有値に対しては、上の条件を満たすために を小さくする必要があります。 このとき最小固有値に対しては が1に近くなり、この成分の収束が非常に遅くなります。 固有値の分散は収束速度を決める大きなファクターです。 下に、シミュレーションの結果を示します。 11タップで等化したときの第7番目(中央タップは6番目)の係数の収束の様子です。 図を分かりやすくするために、修正係数を発散寸前まで大きくしています。 赤色が期待値のカーブ、他は乱数の種を変えたときのオンライン等化の5本のカーブです。 期待値のカーブがオンラインのカーブの平均値(期待値)を与えていることが読み取れます。

img6.gif

 

以上は、期待値の収束でしたが、期待値のまわりでの分散が抑えられないと本当の収束が保証されません。 実際、 の期待値がゼロに収束しても、各要素が発散するケースも考えられるからです。 そこで、今度は、 のノルム に着目し、この収束を確認します。

の両辺のノルムをとります。



ここで、もしタップ数が十分多いとすると、常に なので、右辺の第2項と3項が消え、

となります。 この右辺を展開すると、

が得られますが、任意のベクトルについて成り立つシュワルツの公式、

から、修正係数を

に選んでおけば、式(***)はいつも

のように書け、単調にゼロに収束することがいえます。

以上はタップ数が無限に多いときでしたが、これを有限とした場合について検討しておきます。 この場合は、式(**)の期待値をとってみます。



右辺第2項は、誤差ベクトル と受信ベクトル の間には確率的依存性はなく、ともに期待値がゼロなので無視できます。 第3項は、正の値を持ち、近似的に で与えられます。 ここで、 は受信信号の電力、 は等化器が最適解に固定された状態での等化残電力です。 結局、誤差ベクトルのノルムに関して、次のような漸化式を得ます。


ただし、 の期待値です。 したがって、

に選べば、単調減少がいえます。 等化後の誤差は近似的に、

で与えられます。