定式化誤りへの適応

というNBER論文が上がっているungated版)。原題は「Adapting to Misspecification」で、著者はTimothy Armstrong(南カリフォルニア大)、Patrick M. Kline(UCバークレー)、Liyang Sun(ユニバーシティ・カレッジ・ロンドン)。
以下はその要旨。

Empirical research typically involves a robustness-efficiency tradeoff. A researcher seeking to estimate a scalar parameter can invoke strong assumptions to motivate a restricted estimator that is precise but may be heavily biased, or they can relax some of these assumptions to motivate a more robust, but variable, unrestricted estimator. When a bound on the bias of the restricted estimator is available, it is optimal to shrink the unrestricted estimator towards the restricted estimator. For settings where a bound on the bias of the restricted estimator is unknown, we propose adaptive estimators that minimize the percentage increase in worst case risk relative to an oracle that knows the bound. We show that adaptive estimators solve a weighted convex minimax problem and provide lookup tables facilitating their rapid computation. Revisiting some well known empirical studies where questions of model specification arise, we examine the advantages of adapting to—rather than testing for—misspecification.
(拙訳)
実証研究は頑健性と効率性のトレードオフを伴うのが普通である。スカラーパラメータを推計しようとしている研究者は、正確だが偏りの大きい制約付きの推定量を得るために強い仮定を置くか、もしくはそうした仮定の幾つかを緩めてより頑健だが変動の大きい制約無しの推定量を得ることができる。制約付き推定量の偏りの上限が利用可能な時、制約無しの推定量を制約付き推定量に縮小していくことが最適である。制約付き推定量の偏りの上限が不明な状況については、上限を知っている賢人と比べた相対的な最悪のケースのリスクの増加率を最小化する適応的推定量を我々は提案する。我々は、適応的推定量が加重凸型ミニマックス問題を解決することを示し、その素早い計算を可能にするルックアップテーブルを提供する。モデルの定式化についての疑問が浮上する良く知られている実証研究を幾つか再訪して我々は、定式化誤りを検定するのではなく定式化誤りに適応することの利点を調べる。

定式化誤りを何とか飼い慣らして使おうとする点では、前々回エントリ処置効果の観測されない不均一性のある操作変数法 - himaginary’s diaryで紹介した論文と対極の姿勢にあるように思われる。