なぜリスク予測の不確実性は大きくなるのか?

voxeuにリスクモデルについての考察が掲載されている。著者はLSEのJon DanielssonとArcus InvestmentのRobert Macrae。

記事は2部構成になっており、第一部ではモデルによるリスク予測の不確実性が想定より大きくなってしまう5つの要因を挙げている:

  1. モデルの推計期間が短過ぎる
  2. 推計期間中に構造変化がある
  3. データ・スヌーピングとモデルの最適化が起きてしまう
  4. ポートフォリオの最適化の結果、誤差の最大化が起きてしまう
  5. 極端なリスクを予測することも時には必要

このうち最初の2項は世上良く指摘されている話ということで、記事では残りの3つに焦点を当てて解説している:

  • データ・スヌーピングとモデルの最適化
    • データ・スヌーピング(=より少ないデータからより複雑なモデルを推計しようとすると、モデルのパラメータや予測の信頼区間を過小評価してしまうという問題)の危険性については計量経済学の学徒は皆教わっているが、リスク予測についても同じ問題は起きてしまう。即ち、通常の手順では、バックテストによって過去の(=イン・サンプルの)データの予測のパフォーマンスが良くなるようにモデルを調整するが、それはモデルの最適化の話であって、将来の(=アウト・オブ・サンプルの)データの予測のパフォーマンスの話ではない。
    • データ・スヌーピングとモデルの最適化の問題を最小限に留めるためには、モデルのパラメータ数を抑え、様々な市場の波乱状況について検証を行う必要がある。ただ、そのように予測に関して最適化されたモデルは、過去の出来事を正確に捉えるのは難しい。
    • 即ち、リスクモデルができること――特に危機に際して――には、根本的な制約がある。パラメータ数を抑えたモデルには正確性を期待できない反面、パラメータ数を増やすとアウト・オブ・サンプルでの予測力が落ちてしまう。
  • ポートフォリオの最適化と誤差の最大化
    • リスクモデルによるポートフォリオの最適化により、モデルで捕捉される一般的な要因のリスクはうまくコントロールされる一方で、モデルで捕捉されない極端な出来事に対するコントロールは低下し、そうした出来事に関する誤差が最大化されてしまう。
    • そうした誤差の最大化の悪影響は、個々のトレーディングや個々の機関に留まるとは限らない。最悪の場合、皆が同じモデルを使っていると、ミクロレベルの小さな問題がシステム全体に波及するという事態が起きてしまう。
  • 極端なリスクの予測
    • 極端な出来事はサンプルが少なく、かつ、それぞれ独自の要因に基づいて発生しているので、モデルで予測するのは不可能に近い。危機の際にトレーダーは、モデルをかなぐり捨てて、「すべての株式のベータは1」や「現金が一番」といった経験則に走る。


第二部では、こうした分析を基に、以下の4つの局面におけるモデルの使用について考察を行っている。

  • 定期作業としての銀行や監督当局によるリスクの理解
    • この場合はポートフォリオの最適化を行うわけではないので、誤差の最大化はあまり問題にならない。
    • ただし、学術研究ならいざ知らず、実務ではあまりこうした目的(=リスクの管理ではなく単なる理解)のためにモデルが使われることはあまり無い。
  • 定期作業としての銀行やトレーダによるリスクのマネージメントとコントロール
    • この場合は上述の事項が問題となる。
  • システミックおよび規制上のリスクの分析
    • 個々の金融機関の破綻ではなく、ドミノ的な破綻が問題となる。通常のモデルは金融システムを外生的に扱っているので、これは困難な課題。そうしたモデルが内生的に組み込まれているシステムをモデル化することになるので、監督当局の持つ影響力の判断はかなりの程度主観的にならざるを得ない。
    • 危機のデータは限られるので、過剰適合を避けるためにモデルはシンプルにせざるを得ない。
    • 通常の状態から危機への転移をモデル化することは必須。
    • 稀にしか起きない現象なので、こうした分析のインセンティブが乏しくなりがちなことも問題。
  • 監督当局によるシステミックリスクのマネージメントとコントロール
    • 現在は精密なモデルを使う方向になっているが、むしろ簡素なモデルを目指すべき。
    • モデルに頼らない、もしくは頼ったとしても極めて簡素なモデルによる指標による予防措置にも焦点を当てるべき。
      例:ローン資産価格比率、(リスク加重していない)総資産に基づく最低自己資本レバレッジ比率、バーゼル3の流動性規制。