というNBER論文が上がっている(H/T タイラー・コーエン、ungated(SSRN)版)。原題は「APT or “AIPT”? The Surprising Dominance of Large Factor Models」で、著者はAntoine Didisheim(メルボルン大)、Shikun (Barry) Ke(イェール大)、Bryan T. Kelly(同)、Semyon Malamud(Swiss Finance Institute)。
以下は本文の導入部。
Ross's (1976) APT conjectures that a small number of common factors govern the joint variation of returns. This premise, combined with no-arbitrage arguments, delivers the prediction that assets' expected returns are determined by exposures to a few common factors. Most empirical investigations of the risk-return tradeoff in the past fifty years have occurred within the confines of the APT's assumption - small linear factor models.
In this paper, we consider a different conjecture: that asset pricing models with an exorbitant number of factors are better suited to describe the behavior of asset returns. Our conjecture is rooted in the burgeoning theory of artificial intelligence, which suggests that "complex" statistical models, those with many more parameters (P) than available training observations (T), tend to achieve better out-of-sample success than smaller models. Given its origins, we refer to this conjecture as artificial intelligence pricing theory, or AIPT, to contrast it with the parsimony assumption at the heart of the APT.
One reason for the APT's position as a cornerstone of empirical asset pricing is the convenience of working with small linear factor models. The most obvious convenience stems from the tractability of estimating small models. More subtle is the convenience of comparing small models. The APT sets up conditions - that the number of parameters is small compared to the number of training observations - necessary for comparing models based on in-sample test statistics. Large factor models, on the other hand, are admittedly inconvenient. With so many parameters, they can be costly to train, and due to their high statistical complexity, standard in-sample asset pricing tests are not applicable. Instead, they require out-of-sample model performance comparisons.
We show that, despite their inconveniences, large factor models are far better at pricing assets than the standard low-dimensional factor models in the literature. In the first half of this paper, we present extensive empirical evidence that challenges the APT parsimony conjecture and favors the complexity conjecture of AIPT. The second half of the paper develops a statistical theory that characterizes the behavior of complex factor models and rationalizes their surprising dominance in pricing assets.
(拙訳)
ロス(1976)のAPT*1は、少数の共通ファクターがリターンの同時的な変動を決定する、と予想している。この仮定は、無裁定の議論と組み合わさって、資産の予想リターンは幾つかの共通ファクターへのエクスポージャーで決定される、という予測をもたらす。過去50年のリスクとリターンのトレードオフの実証分析の大半は、少数の線形ファクターモデルというAPTの仮定の範囲内でなされてきた。
本稿で我々は、ファクターの数が非常に多い資産価格モデルの方が、資産のリターンの振る舞いを描写するのにより適している、という、異なる予想を検討する。我々の予想は、急速に発展しつつある人工知能の理論に基づいている。その理論では、利用可能な訓練用の観測値(T)よりも遥かにパラメータ(P)の多い「複雑な」統計モデルの方が、小さなモデルよりも、アウトオブサンプルで達成する成績が良い傾向にある、ということを示している。その出典に鑑みて、我々はこの予想を、APTの核心にあるパラメータ節約的な仮定と対照させるため、人工知能価格理論、ないしAIPTと呼ぶ。
APTが実証的な資産価格付けの基礎に位置付けられるようになった理由の一つは、少数の線形ファクターモデルで研究することの利便性がある。最も明白な利便性は、小さなモデルを推計することの容易さから生じる。より微妙なのは、小さなモデルを比較することの利便性である。APTは、インサンプルの検定統計量に基づいてモデルを比較するのに必要な条件――訓練用の観測値の数よりもパラメータ数の方が少ないという条件――を設定する。一方、大規模なファクターモデルは、確かに不便である。パラメータがあまりに多いので訓練するコストが高く、統計的な複雑性のために標準的なインサンプルの資産価格の検証が適用できない。代わりに、アウトオブサンプルのモデルのパフォーマンスの比較が必要になる。
その不便さにもかかわらず、大規模ファクターモデルは、資産の価格付けにおいて、この分野の標準的な低次元のファクターモデルよりも遥かに優れていることを我々は示す。本稿の前半で我々は、APTのパラメータ節約的な予想に疑問を投げ掛け、AIPTの複雑性による予想を支持する広範な実証結果を提示する。論文の後半では、複雑なファクターモデルの振る舞いを特徴付ける統計理論を構築し、資産価格付けにおけるそれらの驚くべき優位性を理論的に説明する。
KellyとMalamudはリターン予測における複雑性の利点 - himaginary’s diaryやユニバーサルポートフォリオ縮減 - himaginary’s diaryで紹介した論文でも大規模ファクターモデルの複雑性による利点を追究している。
資産価格理論の中でCAPMは、ファクターが単一ということでパラメータ節約的なモデルの極限とも言えるかと思われるが、対照的に、ここで言うAIPTはマルチファクターモデル*2の極限と言えるかと思われる。
CAPMが経済学について教えてくれること - himaginary’s diary、アセモグル=ロビンソンの「直線史観」 - himaginary’s diary、アセモグル=ロビンソンとCAPM - himaginary’s diaryで紹介ないし論じたように、CAPMのような単純なモデルの美しさに人が惹かれるのは自然であるものの、実際に役立つかどうかは別問題である、という冷厳な事実が世の中には存在しており、人工知能はそのことを一層明確にしつつある、と言えるかもしれない。それは後者2エントリで紹介したアセモグル=サックス論争のようにファイナンス分野に留まる話ではなく、また経済学に留まる話でもなさそうである。