← 前節(§§3−1)へ
↑百問百答目次へ → 次節(§§3−3)へ


§3 MemCalc解析
§§3−2 MemCalcとラグ

問 MEMはラグの選定が難しいと聞きました.MemCalcでは,ラグによって結果に影響が出ますか?

1070

答 問0750問0760問0770を参照してください.

問 ARではラグ(最終予測誤差[FPE]フィルターの項数)をFPEのfirst minimumにするなどし,結果としてデータ点数に対して数%〜十数%程度の値となることが多いようです.一方,MemCalcシステムでは添付された自動解析システム(BP Analyzer)などでラグをデータ点数の50%以上の値と取ることが多いようです.ラグの値をこう取るように設定した理由はなんですか?

1080

 MemCalcシステムでは,与えられた原時系列データを基底変動にゆらぎが重畳したものとして解析を進めます.

   時系列データ=基底変動+ゆらぎ

基底変動とゆらぎの関係は時系列データの観測期間によって一般にさまざまに変化します.ある時間スケールでゆらぎとして扱われたものが,より短い時間スケールでは(短いデータ長においては)周期的に変動し,従って基底変動と見なせるなどです.これは時系列データのフラクタル構造を反映した結果です.しかしいずれの場合にも,基底変動は複数の余弦函数の合成函数として記述できます.
 このような取り扱いにおいて,データ長のオーダーの周期をもつ基底変動を構成する個々のリズムをスペクトル解析において正しく分離・抽出することが不可欠です.これはスペクトル計算においてラグを50%以上ととることによって実現されます.
 BP Analyzer*)による自動計算やMemCalcをマニュアル実行した際のスペクトルの自動計算において,具体的にどの程度のラグとするかの判断は多数のデータを解析して得た結果をシステム内部で参照して決めています.
*)BP Analyzerは,同種のデータを大量に解析することを想定して用意された,MemCalcをコントロールして自動運転するための制御プログラムです.

問 例えば「スペクトル解析」(日野幹雄著 浅倉書店)にMEM(Burg法)のサンプルプログラムが掲載されています.このプログラムを実際に計算機に打ち込んで走らせると,ラグの小さいうちはMemCalcシステムと同じようなスペクトルを出します.しかしラグを大きくしていくと両者の結果は随分と異なる印象を受けます.なぜですか?

1090

 日野先生がサンプルとして掲載されたプログラムは,あくまでもMEMの計算過程を読者の便宜のためにFORTRAN言語の形で具体的に記述するものです.そのようなプログラムをそのまま実データの解析に用いることは誤りであり,実際には数値計算上の困難を回避するためのさまざまな創意・工夫を付加することが必要です.
 ラグの値を大きくすると,例えば10桁以上大きさの違う値が出てきます.MEMの理論的特長を損なわないように計算するためには,それらを同時に,いずれも疎かにせずに扱うことが要求されます.

問 ラグを大きくとると,よく「ラグが大きすぎる」と批判する人がいますが,なぜですか?

1100

 ARの立場(与えられた時系列データが線形システムからの出力であるとあらかじめ仮定してしまう立場)からはラグをFPEなどの情報量規準のfirst minimumにとることが理論構成上,整合的です.従って,この立場からは,ラグ値は極めて小さくなるのが普通です(ときには,このfirst minimumすら,検出できないことがあります).
 しかし,時系列データが線形システムからの出力である保障は一般にはまったくありません.その場合には本来のMEMの理論に従ってラグは1点からデータ点数-1点までの任意の値にとることができます.

問 ラグの値を大きく取ることについて,それでもある一群の人々はAR流のラグの取り方に従っていないと強く批判します.なぜ彼らはそれほどまでにかたくなな態度をとるのでしょうか?

1110

 ARでは現在の観測値はラグで示される一定の過去までの観測値の線形結合で記述されます.例えて言えば,今日の血圧は昨日の血圧を何倍かし,一昨日の血圧も何倍かし,そして両者を加えたものということになります.この何倍するかという値(予測誤差フィルターの係数とよばれる)の系列はラグの小さいときには素直な系列となることが多いようです.すなわち,今日の血圧については昨日の血圧の影響がおおきく,一昨日の血圧の影響は小さいというような系列です.
 しかしながら,ラグを大きくしていくと奇妙なことが起こります.本来,ARモデルでは時間遅れが大きくなる(過去に遡る)にしたがってこの係数は正負いずれであるにせよ0に漸近していくことが期待されるにもかかわらず,実際には時間遅れの小さい場合と同様の挙動を示します.また,特にカオス時系列データなどについては,その係数個々の値自体も数千などという水準に達します.例えば10ステップ前の観測値を5000倍し,11ステップ前の観測値を-1000倍し,そして加えるなどという具合です.このような事実は予測誤差フィルターの係数をAR流に理解することに非常な困難をもたらします.
 ご質問について,端的にいえばラグを大きくするとARの破綻が明らかとなってしまうことがそのような批判を呼び起こすものと思われます.

問 MemCalcシステムでラグを大きくとると,特にスペクトルの高周波数帯に多数のピークが現れます.これはFFTでのいわゆるゴーストピークなのではありませんか?

1120

 FFTでゴーストピークが現れるのは,その理論構成上,与えられた有限長の時系列データが無限の過去から無限の未来まで繰り返されるという,無限長の仮想的データのスペクトルを求めているためです.有限長の時系列データの繰返し部分でデータが滑らかに繋がらず,この不整合が時系列データ長ごとに繰り返されるためにゴーストピークが発生します.
 他方,MEMではFFTにおけるような構造をデータに仮定しませから,そのような由来の“ゴーストピーク”は存在しません.

 


↑ページの先頭へ

← 前節(§§3−1)へ
↑百問百答目次へ → 次節(§§3−3)へ