「合理的期待モデルは最尤法から離れては生きられないのよ」「カリブレーションは滅びぬ、何度でも蘇るさ」

サージェントインタビュー一昨日昨日引用したカリブレーションに関する話の続き。

Evans and Honkapohja: Aren’t applications of likelihood based methods in macroeconomics now making something of a comeback?
Sargent: Yes, because, of course, a rational expectations equilibrium is a likelihood function, so you couldn’t ignore it forever. In the 1980s, there were occasions when it made sense to say, “it is too difficult to maximize the likelihood function, and besides if we do, it will blow our model out of the water.” In the 2000s, there are fewer occasions when you can get by saying this. First, computers have gotten much faster, and the Markov Chain Monte Carlo algorithm, which can be viewed as a clever random search algorithm for climbing a likelihood function, or building up a posterior, is now often practical. Furthermore, a number of researchers have constructed rational expectations models with enough shocks and wedges that they believe it is appropriate to fit the data well with complete likelihood based procedures. Examples are the recent models of Otrok and Smets andWouters. By using log-linear approximations, they can use the same recursive representation of a Gaussian likelihood function that we were using in the late 1970s and early 80s.
Of course, for some nonlinear equilibrium models, it can be difficult to write down the likelihood. But there has been a lot of progress here thanks to Tony Smith, Ron Gallant, and George Tauchen and others, who have figured out ways to get estimates as good, or almost as good, as maximum likelihood. I like the Gallant-Tauchen idea of using moment conditions from the first-order conditions for maximizing the likelihood function of a well fitting auxiliary model whose likelihood function is easy to write down.
Evans and Honkapohja: Do you see any drawbacks to likelihood based approaches for macro models?
Sargent: Yes. For one thing, without leaving the framework, it seems difficult to complete a self-contained analysis of sensitivity to key features of a specification.
Evans and Honkapohja: Do you think that these likelihood based methods are going to sweep away GMM based methods that don’t use complete likelihoods?
Sargent: No. GMM and other calibration strategies will have a big role to play whenever a researcher distrusts part of his specification and so long as concerns about robustness endure.


(拙訳)

Evans and Honkapohja
尤度に基づく手法のマクロ経済学への応用は、今や一種のカムバックを果たした格好になっていませんか?
サージェント
そうですね。というのは、当然ながら、合理的期待均衡というのは尤度関数なので、ずっと無視し続ける、というわけにはいかないのですよ。1980年代には、「尤度関数を最大化するのはあまりにも難しいし、それにもし最大化したら、モデルが滅茶苦茶になってしまう」と言っても許される雰囲気がありました。2000年代に入ると、その言い逃れが許されなくなってきました。第一に、コンピュータの計算速度がかなり上がりましたし、また、尤度関数を辿ったり事後分布を構築するのに使える賢いランダム探索アルゴリズムとでも言うべきマルコフ連鎖モンテカルロアルゴリズムが実用に乗るようになりました。また、多くの研究者が、衝撃や乖離を十分に取り込んだ合理的期待モデルを構築した結果、完全に尤度に基づく手法でデータをうまく適合させるのが適切なやり方だ、と考えるようになりました。オトゥロク、スメッツ、ウーターズの最近のモデルがその例です。対数線形近似を用いることによって彼らは、我々が1970年代後半から1980年代前半に掛けて使っていたのと同じガウス的な尤度関数の再帰型表現を使うことが出来ます。
もちろん、ある種の非線形均衡モデルについては、尤度関数を定式化するのは困難です。しかし、最尤法と同程度ないしほぼ同程度に良い推定量を得る方法を解明したトニー・スミス、ロン・ギャラント、ジョージ・タウチェンやその他の人々のお蔭で、この面でも大いに進歩がありました。尤度関数の定式化が容易な当てはまりの良い補助モデルの尤度関数の最大化に一階条件のモーメント条件を用いる、というギャラントとタウチェンのアイディアが私は好きですね。
Evans and Honkapohja
最尤法に基づくマクロ経済モデルへのアプローチには何か欠点はありますか?
サージェント
あります。一例を挙げると、その枠組みを離れない限り、モデル定式化における主な特性に対しての自己完結型の感度分析を完成させるのは難しいように思われます。
Evans and Honkapohja
そうした尤度に基づく手法が、完全な尤度を用いないGMMに基づく手法を一掃すると思われますか?
サージェント
いいえ。GMMやその他のカリブレーション手法は、研究者が自分の定式化を部分的に信頼できず、頑健性に関する懸念が残る時には常に大きな役割を果たします。