合理的期待均衡の・ようなもの

引き続きサージェントインタビューから、今度はインタビュアーの本領である学習についてのやり取りを引用してみる。

Evans and Honkapohja: Why did you get interested in nonrational learning theories in macroeconomics?
Sargent: Initially, to strengthen the case for and extend our understanding of rational expectations. In the 1970s, rational expectations was severely criticized because, it was claimed, it endowed people with too much knowledge about the economy. It was fun to be doing rational expectations macro in the mid-70s because there was lots of skepticism, even hostility, toward rational expectations. Critics claimed that an equilibrium concept in which everyone shared “God’s model” was incredible. To help meet that criticism, I enlisted in Margaret Bray’s and David Kreps’s research program. Their idea was to push agents’ beliefs away from a rational expectations equilibrium, then endow them with learning algorithms and histories of data. Let them adapt their behavior in a way that David Kreps later called “anticipated utility” behavior: here you optimize, taking your latest estimate of the transition equation as though it were permanent; update your transition equation; optimize again; update again; and so on. (This is something like “fictitious play” in game theory. Kreps argues that while it is “irrational,” it can be a smart way to proceed in contexts in which it is difficult to figure out what it means to be rational. Kreps’s Schwartz lecture has some fascinating games that convince you that his anticipated utility view is attractive.) Margaret Bray, Albert Marcet, Mike Woodford, you two, Xiaohong Chen and Hal White, and the rest of us wanted to know whether such a system of adaptive agents would converge to a rational expectations equilibrium. Together, we discovered a broad set of conditions on the environment under which beliefs converge. Something like a rational expectations equilibrium is the only possible limit point for a system with adaptive agents. Analogous results prevail in evolutionary and adaptive theories of games.
Evans and Honkapohja: What do you mean “something like”?
Sargent: The limit point depends on how much prompting you give agents in terms of functional forms and conditioning variables. The early work in the least-squares learning literature initially endowed agents with wrong coefficients, but with correct functional forms and correct conditioning variables. With those endowments, the systems typically converged to a rational expectations equilibrium. Subsequent work by you two, and by Albert Marcet and me, withheld some pertinent conditioning variables from agents, e.g., by prematurely truncating pertinent histories. We found convergence to objects that could be thought of as “rational expectations equilibria with people conditioning on restricted information sets.” Chen and White studied situations in which agents permanently have wrong functional forms. Their adaptive systems converge to a kind of equilibrium in which agents’ forecasts are optimal within the class of information filtrations that can be supported by the functional forms to which they have restricted agents.


(拙訳)

Evans and Honkapohja
マクロ経済学の非合理的学習理論にご興味を持たれたのはなぜでしょうか?
サージェント
最初は、合理的期待の論拠を強化すると同時に理解を深めるためでした。1970年代に合理的期待は厳しい批判に曝されていました。批判者が言うには、合理的期待では人々が経済のことを知りすぎている、とのことでした。70年代半ばには合理的期待への懐疑ないし敵意さえ溢れていたので、合理的期待マクロをやるのは楽しかったですよ。批判者は、「神のモデル」を皆が共有している均衡概念は信じ難い、と言いました。その批判に応える上で助けになるかと思い、マーガレット・ブレイとデビッド・クレプスの研究プログラムに参加しました。彼らのアイディアは、主体の信念を合理的期待均衡から外れたところに追いやり、それからその主体に学習アルゴリズムとデータの履歴を与える、というものでした。後にデビッド・クレプスが「予期された効用」の行動と呼ぶことになるやり方で彼らが自分の行動を適応させるようにしよう、というわけです。それは、最適化し、遷移方程式が恒久的なものであるかのようにしてその直近推計を行い、遷移方程式を更新し、再び最適化し、再び更新して…、というやり方です(これはゲーム理論の「仮想プレイ」に似ています。クレプスは、それは「非合理的」であるものの、合理的であるということがどんなことかを見い出すのが難しい状況下で先に進む上では賢い方法となり得る、と論じました。クレプスのシュワルツ講義*1では、予期された効用という彼の考え方が魅力的だと納得させるようなゲームが幾つか提示されています)。マーガレット・ブレイ、アルベルト・マルセット、マイク・ウッドフォード、あなた方お二人、シャオホン・チェン、ハル・ホワイト、そしてそれ以外の私を含む皆が、そういった適応的主体のシステムが合理的期待均衡に収束するかどうか知りたがっていました。我々は皆で、信念が収束する環境に関する幅広い条件集合を発見しました。適応的主体を擁するシステムでは、合理的期待均衡のようなものが唯一存在可能な極限点でした。進化ゲーム理論や適応ゲーム理論でも同様の結果が主流となっています。
Evans and Honkapohja
「のようなもの」とはどういった意味でしょうか?
サージェント
極限点は、関数形や条件付け変数を通じてどの程度あなたが主体を動機付けるかに依存します。最小二乗法による学習という初期の研究では、最初に主体に誤った係数を与えていましたが、関数形と条件付け変数は正しいものを与えていました。そうした設定では、システムは合理的期待均衡に収束するのが普通です。あなた方お二人や、アルベルト・マルセットと私が行った後続の研究では、妥当な条件付け変数の幾つかを主体から隠しました。例えば、関連履歴を早期に削除してしまう、といった形でです。我々は、「限定された情報集合を前提とする人々にとっての合理的期待均衡」と考えられるものへの収束を見い出しました。チェンとホワイトは、主体が恒久的に誤った関数形を有している状況を調べました。彼らの適応システムは、そのように制約された関数形によって支持される情報フィルタリングの範囲内では主体の予測が最適であるような均衡に収束しました。

*1:多分ここの1997年。