計量経済学は不幸な星の下に生まれた

引き続きフォーリー論文から、今日は計量経済学に関する記述を引用してみる。

The role of empirical verification in the mathematized economics of the Samuelson era was supposed to be played by econometrics, a field, curiously enough, in which Samuelson himself rarely, if ever, worked. With some economic data traditional statistical methods work very well. I remember Richard Ruggles showing a slide of what appeared to be a perfect bell curve in a talk, and remarking that it was in fact a visualization of real census data points. With macroeconomic time series, however, several problems gang up on econometrics to make life very difficult.
First, although it may appear that there are a lot data points in macroeconomic time series, a little acquaintance with the data shows that it is highly “autocorrelated”, which means in practical terms that the amount of independent information is much smaller than the number of measured data points. For example there may have been twelve or thirteen separate business cycles since 1929, which suggests that at business cycle frequency the effective statistical sample size is only on that order, which greatly limits the power of any statistical methods to find reliable regularities.
Second, econometrics was born under some unlucky scientific stars. Though economic theory (of all schools) bristles with inherently nonlinear relationships, the dominant and best-developed statistical methods available in the first decades of serious econometric investigation firmly rested on linear specifications.
Linear regression is best adapted to understand equilibrium systems undergoing small perturbations from stable equilibrium configurations, a situation where the small size of the variations makes the assumption of linearity plausible. This is emphatically not a good description of macroeconomic fluctuations in industrial capitalist economies. The particular “frequentist” philosophy that dominated econometric thinking and teaching frames statistical inference as a problem of “estimating” models, and generally evaluates procedures by their “asymptotic consistency”, that is, their theoretical performance with unboundedly large samples from “stationary”, that is, essentially, unchanging repetitive experiments. This is cold comfort for a science where data points are scarce, and a recipe for disaster in macroeconomic
research where history is in principle unrepeatable. Early econometric theory remained blissfully innocent of the problem of over-fitting limited data with excessively parameterized specifications, so that its methods tended to confirm pretty much any theory whatsoever. The absence of any theory of fluctuations in the optimizing mathematics that underlies the various flavors of general equilibrium theory means that theory itself offers no guide to the statistical specification of econometric models, further opening the floodgates to whatever method supports the point of view of the investigator.
The wild-west character of econometric investigations into macroeconomic problems from the 1940s to the 1970s led to a swing of the pendulum, exploited by the advocates of “rational expectations” macroeconomic modeling, in which the traditional scientific role of empirical confirmation in policing theoretical speculation was usurped by philosophical/theoretical general principles. The filter for publication of macroeconomic research became, not the ability of the theory to explain real features of the data (of which there wasn’t that much to begin with), but the fidelity of the theory to strictures of modeling purity announced ex cathedra by leading senior authorities. The test of the ability of theories to explain data, which was never very strong in macroeconomics, was further watered-down to ad hoc procedures such as “calibration”, which have essentially no protections against over-fitting built into them.
(拙訳)
サミュエルソン時代に数理化された経済学の実証的検証の役割は、計量経済学が担うことが想定されていた。面白いことに、サミュエルソン自身はこの計量経済学という分野でほとんど、あるいはまったく、研究を行っていない。ある種の経済データについては、伝統的な統計的手法が非常に良く当てはまる。以前、リチャード・ラグルズが講演で完璧な正規分布曲線と思しきスライドを示したことがあったが、それは実は実際の国勢調査データを描画したもの、とのことだった。しかしながら、マクロ経済の時系列データについては、幾つかの問題が計量経済学に襲い掛かり、研究を非常に困難なものとする。
まず、マクロ経済の時系列データにはたくさんのデータポイントがあるように思われるかもしれないが、少しデータを調べてみると、高い「自己相関性」があることが分かる。実務上の用語で言えば、測定されたデータポイントの数に比べて独立な情報の量はかなり小さい、ということだ。例えば、1929年以来、12ないし13の独立した景気循環があったと思うが、それは、景気循環という頻度でデータを見た場合、統計的サンプルサイズはその程度の数しかない、ということを意味する。信頼性のある規則性を見つけるに当たり、どんな統計的手法にとってもその少なさは大きな制約となる。
第二に、計量経済学は不幸な星の下に生まれたと言える。経済理論は(どの学派においても)本質的に非線形関係に満ち溢れているが、計量経済学の研究が精力的に行われた最初の数十年においては、主流かつ最も発展した統計的手法として、線形関係に根差したものしか利用できなかった。線形回帰は、小さな擾乱に曝された定常均衡の特性を持つ均衡システムを理解するのに最適であるが、そこで線形という仮定をもっともらしいものとするのは、分散が小さいことである。これは明らかに、産業資本主義経済におけるマクロ経済の変動には当てはまらない計量経済学の思考様式と教育を支配した「頻度主義」という哲学は、統計的推定をモデル「推計」の問題として捉え、「漸近的一致性」によってその手順を評価する。即ち、モデルの理論的性能を無限の数のサンプルによって評価する、ということであるが、そのサンプルは、基本的に変化を伴わない実験の繰り返しという「定常」状態で得ることになっている。このことはデータポイント数の少ない科学にとっては有難くないことであり、歴史が繰り返すということが原理上無いマクロ経済学研究にとっては致命傷である。初期の計量経済学理論は、限られたデータを多すぎる変数によって推計する過剰適合の問題に無邪気なほど無関心であったため、その手法は、ほぼいかなる理論も実証してしまう傾向があった。一般均衡理論の様々な側面を支える最適化の数学に変動に関する理論がまったく含まれていなかったことは、理論自体は計量経済モデルの統計的推計に何ら指針を示すことが無かった、ということを意味する。その結果、各研究者の見解を支持するありとあらゆる手法が溢れかえることになった。
1940年代から1970年代に掛けてのマクロ経済学の問題に関する計量経済学研究は、このように西部開拓期時代の様相を呈していたが、それが反動を呼ぶことになった。「合理的期待」マクロ経済モデルの構築を主唱する人々によって、理論的推測の検証においてそれまで実証研究が担っていた科学的役割は、哲学的/理論的一般原則に取って代わられた。マクロ経済学研究の出版基準は、理論が実際のデータの特徴を説明する能力ではなく(そもそもそれはあまり無かった)、主導的な権威者が厳かに宣言する視野狭窄的なモデル純血主義に理論がどの程度忠実か、ということで計られるようになった。理論がデータを説明する能力の検証手段は、マクロ経済学では強力だったためしなど無いのだが、「カリブレーション」と呼ばれるアドホックな手順にまで弱体化された。その手順には、過剰適合という問題が入り込むことへの対策など基本的に存在しない。