サージェントインタビューから昨日引用した部分の続き。
Evans and Honkapohja: Why do you say “various types of calibration”?
Sargent: Different people mean and do different things by calibration. Some people mean “use an extraneous estimator.” Take estimates from some previous study and pretend that they are known numbers. An obvious difficulty of this procedure is that often those extraneous estimates were prepared with an econometric specification that contradicts your model. Treating those extraneous parameters as known ignores the clouds of uncertainty around them, clouds associated with the estimation uncertainty conveyed by the original researcher, and clouds from the “specification risk” associated with putting your faith in the econometric specification that another researcher used to prepare his estimates.
Other people, for example, Larry Christiano and Marty Eichenbaum, by calibration mean GMM estimates using a subset of the moment conditions for the model and data set at hand. Presumably, they impose only a subset of the moment conditions because they trust some aspects of their model more than others. This is a type of robustness argument that has been pushed furthest by those now doing semiparametric GMM. There are ways to calculate the standard errors to account for vaguely specified or distrusted aspects of the model. By the way, these ways of computing standard errors have a min-max flavor that reminds one of the robust control theory that Lars Hansen and I are using.
Evans and Honkapohja: We know what question maximum likelihood estimates answers, and the circumstances under which maximum likelihood estimates, or Bayesian counterparts to them, have good properties. What question is calibration the answer to?
Sargent: The best answer I know is contained in work by Hansen and others on GMM. They show the sense in which GMM is the best way to estimate trusted features of a less than fully trusted model.
Evans and Honkapohja: Do you think calibration in macroeconomics was an advance?
Sargent: In many ways, yes. I view it as a constructive response to Bob’s remark that “your likelihood ratio tests are rejecting too many good models.” In those days, the rational expectations approach to macroeconomics was still being challenged by influential people. There was a danger that skeptics and opponents would misread those likelihood ratio tests as rejections of an entire class of models, which of course they were not. (The internal logic of the likelihood function as a complete model should have made that clear, but apparently it wasn’t at the time!) The unstated case for calibration was that it was a way to continue the process of acquiring experience in matching rational expectations models to data by lowering our standards relative to maximum likelihood, and emphasizing those features of the data that our models could capture. Instead of trumpeting their failures in terms of dismal likelihood ratio statistics, celebrate the features that they could capture and focus attention on the next unexplained feature that ought to be explained. One can argue that this was a sensible response to those likelihood ratio tests. It was also a response to the scarcity of resources at our disposal. Creating dynamic equilibrium macro theories and building a time series econometrics suitable for estimating them were both big tasks. It was a sensible opinion that the time had come to specialize and to use a sequential plan of attack: let’s first devote resources to learning how to create a range of compelling equilibrium models to incorporate interesting mechanisms. We’ll be careful about the estimation in later years when we have mastered the modelling technology.
(拙訳)
- Evans and Honkapohja
- 「各種のカリブレーション」とおっしゃったのはなぜですか?
- サージェント
- 人によってカリブレーションで意味することが違うからです。ある人は「外来の推定量を使う」という意味で使います。何らかの先行研究から推定量を取得し、それが既知の数字であるかのように扱う、というやり方です。こうした手法の明らかな問題点は、そうした外来の推定量が、しばしば自分のモデルと非整合的な計量経済学の定式化によって導出されている、という点です。それら外来のパラメータを既知のものとして扱うことは、それに纏わる諸々の不確実性を無視することになります。元の研究者が明らかにしている推定の不確実性や、自分以外の研究者が推計量を得る際に用いた計量経済学の定式化を信頼することに伴う「定式化のリスク」の不確実性、といったものをです。
一方、ラリー・クリスティアーノやマーティ・アイケンバウムなどがカリブレーションで意味するのは、手持ちのモデルとデータセットについてモーメント条件を部分的に用いたGMM推計です。モーメント条件を部分的にしか使わないのは、モデルのある側面を他の側面に比べてとりわけ信頼しているためと思われます。そのやり方は、現在セミパラメトリックGMMを研究している人々が最も深く追究している頑健手法の一種と言えます。曖昧に定式化された、ないし、信頼できないモデルの側面に係る標準偏差を計算する方法が存在するのです。ちなみに、そのような標準偏差の計算法にはミニマックスが絡んでおり、ラース・ハンセンと私が用いているロバスト制御理論ともつながっています。- Evans and Honkapohja
- 最尤推定法が解答を与えてくれる問題、および、最尤推定量ないしそれに対応するベイジアン推定量が良い特性を発揮する条件について、我々は知っています。カリブレーションが解答となる問題とはどのようなものでしょうか?
- サージェント
- 私の知る限り、その問いに対する最も良い答えは、GMMに関するハンセンやその他の人々の研究の中にあります。完全に信頼できないモデルで信頼できる特性を推定する最良の方法にGMMがなる道理を彼らは示しました。
- Evans and Honkapohja
- マクロ経済学におけるカリブレーションは進歩だったとお思いですか?
- サージェント
- 多くの点で、そう思います。私はカリブレーションを、ボブの「尤度比検定はあまりに多くの良いモデルを棄却し過ぎる」というコメントを受けた建設的な対応と見ています。当時は、マクロ経済学における合理的期待の手法は依然として学界の大物たちから疑義を呈されていました。懐疑論者や反対論者が、尤度比検定の結果を合理的期待モデル全体が否定されたものと誤解する可能性があったのです。もちろんそれは正しい解釈ではありません(完成されたモデルとしての尤度関数の内的論理からそのことは明白なはずですが、明らかに当時はそうではなかったのです!)。最尤推定法よりも基準を緩め、我々のモデルで捉えることが可能なデータの特性を強調することによって、合理的期待モデルとデータを突き合わせる経験を積むプロセスを継続しよう、そのための手段だ、というのが、語られざるカリブレーションの大義でした。合理的期待モデルの尤度比検定における残念な結果を吹聴するのではなく、それらのモデルで捕捉できる特性を喧伝し、まだ説明されていない特性で次に説明すべきものに関心を集中させよう、というわけです。これは尤度比検定の結果を受けた賢明な対応と言えると思います。それはまた、利用可能なリソースが限られていることを受けた対応でもありました。動学的均衡マクロ理論を打ち建て、それを推計するのに適した時系列計量経済学を構築するのは、いずれも大変な作業でした。今は個別の問題に特化し、逐次的な攻撃計画を採用しよう、というのは賢明な意見でした。まずは、興味深いメカニズムを取り込んだ説得力のある一連の均衡モデルを作成する手法を身に付けることにリソースを集中しよう。推計に神経を使うのはモデル構築技術が自家薬籠中の物となった後年のことにしよう、というわけです*1。
*1:[11/1追記]10/29エントリで触れたデロングは、これを受けて、「しかし、時系列データに適合するモデルを真剣に構築する時機は遂に訪れなかった。もっと言うならば、そうした時機が訪れることはないであろう。(Yet that day of getting serious about building a model that could match the time series never came. Moreover, I would say that it will not come.)」と皮肉っている。その理由は、合理的期待を謳うならばすべての事後分布を取り込む必要があり、従って戦後の米国の分析においてはリーマンショックの想定を取り込む必要があるが、実際にはリーマンショックは発生確率がゼロに近かったから、との由。また同エントリの冒頭でデロングは、ブランシャールのカリブレーション評「データがモデルに適合しないという事実を無視し、恰も適合したかのように話を進める一つの方法(a way of ignoring the fact that the data do not fit your model, and proceeding as if they did)」を引用している。