今も残るスペイン宗教裁判の傷跡

「As one sees shocking pictures from Afghanistan, here is a reminder from Spanish inquisition(アフガニスタンでのショッキングな映像が飛び込んできたが、この記事ではスペインの異端審問を呼び起こしている)」というコメントを添えてMostly Economicsが先月16日にこちらのvoxeu記事を紹介していた著者の一人(Mauricio Drelichman)のサイト元論文にリンクしているが*1、そこから「Significance」と「Abstract」を引用してみる。

Significance
From Imperial Rome to North Korea, religious persecution entwined with various degrees of totalitarian control has caused conflict and bloodshed for millennia. In this paper, we ask the following: Can religious persecution have repercussions long after it has ceased? Using data on the Spanish Inquisition, we show that in municipalities where the Spanish Inquisition persecuted more citizens, incomes are lower, trust is lower, and education is markedly lower than in other comparable towns and cities. Nobody expects the Spanish Inquisition to still matter today, but it does.

Abstract
Religious persecution is common in many countries around the globe. There is little evidence on its long-term effects. We collect data from all across Spain, using information from more than 67,000 trials held by the Spanish Inquisition between 1480 and 1820. This comprehensive database allows us to demonstrate that municipalities of Spain with a history of a stronger inquisitorial presence show lower economic performance, educational attainment, and trust today. The effects persist after controlling for historical indicators of religiosity and wealth, ruling out potential selection bias.
(拙訳)

重要性
ローマ帝国から北朝鮮に至るまで、様々なレベルの全体主義の支配に伴う宗教の迫害は数千年に亘って紛争と流血をもたらしてきた。本稿で我々は以下のように問うた:宗教的迫害は、それが終わってから長い時間が経過した後も爪痕を残しているだろうか? スペインの異端審問のデータを用いて我々は、多くの市民が異端審問で迫害された地方では、他の比較可能な市町に比べ、所得が低く、信頼感が低く、教育程度が著しく低いことを示す。スペインの異端審問が今も影響力を持っているとは誰も予想していないが、持っているのである。
要旨
宗教の迫害は世界の多くの国で良く見られる。その長期的影響についてはあまり実証結果は存在しない。我々はスペイン全土からデータを収集し、1480年から1820年に掛けて行われたスペイン異端審問の67,000以上の裁判の情報を利用した。この包括的なデータベースにより、過去に異端審問の勢いが強かった地域では、今日の経済のパフォーマンス、教育程度、および信頼感が低いことが示された。この効果は、宗教性と富についての歴史的指標をコントロールした後も残っており、選択バイアスの可能性は排除される。

*1:米国科学アカデミー紀要(Proceedings of the National Academy of Sciences of the United States of America、PNAS)8/17掲載。論文のタイトルは「The Long Run Effects of Religious Persecution: Evidence from the Spanish Inquisition」で、著者はMauricio Drelichman(ブリティッシュコロンビア大)、Jordi Vidal-Robert(シドニー大)、Hans-Joachim Voth(チューリッヒ大)。6月時点のWPがここで読める(Drelichmanのサイトでリンクしている)。

大都市は今後どうなるのか?

都市に関する論考をもう一丁。歴史家のハロルド・ジェームズが、表題のProject Syndicate論説(原題は「What Next for Great Cities?」)でメガシティについて考察している(H/T Mostly Economics)。

彼が言うには、ロンドン、ニューヨーク、香港のような大都市は、今世紀初頭まで、人々と資金とアイディアが流入することにより、金融センターとしてだけではなく文化の中心地、創造の巣としても繁栄した。だが、そうした都市の生活を手に入れられない、もしくは望ましくないと思う地方と都市との間に対立が生じた。ブレグジット、トランプ現象、そして香港と中国本土の対立はその表れだとジェームズは言う。

また、都市の中でも、高品質な住居を手に入れられるグローバルエリートと、周縁の混雑した環境に居住し、不適切かつ信頼できない公共交通手段での長距離通勤を強いられる一般層との分化が生じた。さらにコロナによって、テレワークが可能な知識労働者と、現場の労働者という新たな二極化が生まれ、知識労働者においては高コストの都市を脱出する動きも出てきた。

ただ、こうした危険で過密な都市への反発は歴史上目新しいものではない、とジェームズは指摘する。ボッカチオにみられるように、疫病を避けて都市を脱出することは過去にもあり、フローレンスでは疫病によって長期的な変化と階級対立が悪化した。そうした都市の衰退の最も顕著な例は、その苦境がトーマス・マンの「ベニスに死す」で描かれたベネチアで、16世紀の後半に繁栄を極めた後、交易路の変化や新興都市との競争や疫病によって長期衰退の道を辿った。だが、周辺の小さな町に有名な産品の生産を移し、周囲の地域と新たな政治的関係を築いたという点で、ベネチアはポストコロナ時代のメガシティの新たなモデルとなり得る、ともジェームズは指摘している。

ジェームズは論説を以下のように結んでいる。

Today, pre-existing political conflicts have hampered the overall response to the pandemic. By their very nature, global cities were particularly vulnerable to the virus, and when it struck, their leaders and national authorities began blaming one another. London Mayor Sadiq Khan has regularly attacked British Prime Minister Boris Johnson’s shambling lockdown strategy. New York City’s mayor is in a three-way struggle with the governor of New York and Trump, who himself has used US cities’ crisis to deflect attention from his own mismanagement. In Hong Kong’s case, the virus created cover for China to assert its authority over the territory with a sweeping new security law.
A revival of real democracy is often thought to be the best solution to the problems associated with technocratic globalization. But if democracy is to have any appeal, democratic governments will have to be more effective in addressing not just the virus but also deeper sources of malaise such as poverty and unaffordable housing. Without competent management, megacities are bound to share the same fate as the great cities of the past. London and New York could sink in their own way. But, this time, there would be no renaissance in the hinterland.
(拙訳)
今日、従前からの政治紛争が疫病への全体的な対応を妨げている。国際都市はその性格からしてウイルスに対して特に脆弱であり、実際にウイルスに襲われると、都市の指導者と政府当局はお互いを非難し始めた。ロンドン市長のサディク・カーンはボリス・ジョンソン英首相の腰の定まらないロックダウン政策をいつも攻撃している。ニューヨーク市長はニューヨーク州知事とトランプとの三方向の闘争を繰り広げているが、彼自身、自らの不始末から関心を逸らすために米国の都市の危機を利用した。香港の場合は、新たな広範囲の安全維持法によって中国が地域に権力を振るう名目をウイルスが提供した。
テクノクラートのグローバリゼーションに伴う問題については、真の民主主義の再生が最善の解決策だと考えられることが多い。しかし民主主義が少しでも人々に訴求するためには、民主政府は、ウイルスだけではなく、貧困や入手困難な住宅のようなより根源的な問題にももっと有効な形で取り組む必要がある。上手く運営できなければ、メガシティは過去の大都市と同じ運命を辿ることになる。ロンドンとニューヨークはそれぞれの形で沈むことになろう。しかし今回は後背地でのルネッサンスは無いだろう。

都市の統一理論

というNBER論文が少し前に上がっていたungated版)。原題は「A Unified Theory of Cities」で、著者はJacques-François Thisse(ルーヴァン・カトリック大CORE*1)、Matthew A. Turner(ブラウン大)、Philip Ushchev(国立研究大学高等経済学院*2)。
以下はその要旨。

How do people arrange themselves when they are free to choose work and residence locations, when commuting is costly, and when increasing returns may affect production? We consider this problem when the location set is discrete and households have heterogenous preferences over workplace-residence pairs. We provide a general characterization of equilibrium throughout the parameter space. The introduction of preference heterogeneity into an otherwise conventional urban model fundamentally changes equilibrium behavior. Multiple equilibria are pervasive although stable equilibria need not exist. Stronger increasing returns to scale need not concentrate economic activity and lower commuting costs need not disperse it. The qualitative behavior of the model as returns to scale increase accords with changes in the patterns of urbanization observed in the Western world between the pre-industrial period and the present.
(拙訳)
仕事と居住の場所を自由に選べる時、通勤コストが高い時、収穫逓増が生産に影響する時、人々はどのような選択に落ち着くのであろうか? 我々は、場所の集合が離散的で、家計が仕事場と居住場所の組み合わせについて不均一な選好を有している場合のこの問題を検討した。我々はパラメータ空間全体の均衡の一般的な特性を提示する。それ以外の点では従来型の都市モデルに選好の不均一性を導入すると、均衡の振る舞いは根本的に変化する。複数均衡が普遍的となるが、安定した均衡が存在するとは限らない。規模についての収穫逓増が強いことは必ずしも経済活動を集中化させず、通勤コストが低いことは必ずしも経済活動を分散させない。規模のリターンが増加する時のモデルの定性的な振る舞いは、西洋世界で産業革命以前の時代と現代との間で観測された都市化のパターンの変化と符合する。

ポール・ローマーのブースター接種推進論

ポール・ローマーが3回に亘るブログエントリで、ブースター接種の必要性を訴えている(8/23エントリ8/24エントリ9/15エントリ;H/T タイラー・コーエン)。
彼の主張のポイントを抜き書きすると以下の通り。

  • 以下の2点について、米政府がどちらかしかできない、というのは誤りで、どちらもできる。
    • 2回の接種を終えていない人に接種を済ますように促すとともに、2回の接種を終えた人に3回目の接種をする。
    • メーカーに、国内需要を満たすのに十分な量を生産させるとともに、世界中の人にも行き渡るようにする。
  • ブレークスルー感染を気にせずに重症化だけを気にするのは、カナリアが死んでも気にせずに炭鉱夫の命を救うことだけを気にする、というのと同様。
  • 感染の相対リスクをrI、感染の条件付きの有症状の相対リスクをrS|I、有症状の条件付きの重症化の相対リスクをrD|Sとすると、重症化の無条件の相対リスクは3つのrの掛け算となる:
       rD=rD|S・rS|I・rI
    • それぞれの相対リスクはワクチン接種済みの人の確率とそうでない人の確率の比率で表される:
        rI=pI(ワクチン接種済み)/pI(ワクチン接種済みでない)
        rS|I=pS|I(ワクチン接種済み)/pS|I(ワクチン接種済みでない)
        rD|S=pD|S(ワクチン接種済み)/pD|S(ワクチン接種済みでない)
  • rIを0.2、rS|I=0.4、rD|S=0.5とすれば、rD=0.04で、ワクチンの重症化に対する有効率eD=1-rDは96%。今、rIがr'I=0.4に倍増したとすると、r'D=0.08で、ワクチンの重症化に対する有効率e'D=1-r'Dは92%とやや下がる。一方、感染への有効率はeI=1-rI=80%からe'I=1-r'I=60%に大きく下がっている。
  • メイヨー・クリニック*1の調査では、ファイザーとワクチン未接種者の入院者数と感染者数は以下のように推移した。
Feb Mar Apr May June July
Hospitalizations Pfizer 0 1 2 3 1 4
Not Vaccinated 0 9 20 25 7 18
Infections Pfizer 0 4 11 13 4 38
Not Vaccinated 1 37 93 82 24 73
  • 5~7月の対象者数は各グループ2万人であるが、ファイザーグループの入院者数はその間一桁で推移しており、増加を確認するのは難しい。一方、感染者はファイザーグループでも2桁で、デルタが主流となった7月に有意な増加が認められる。
  • 入院者のデータをもっと得たいのはやまやまだが、メイヨークリニックは他州でも患者を抱えているものの、ワクチン接種のデータを取得しているのはミネソタ州だけなので、それは難しい。もっとデータを得るために何もせずに時間が経過するのを待つという方法もあるが、それは現在の状況からして取れる選択肢ではない。この研究や他の研究でワクチンの感染に対する有効性がデルタ株の到来とともに有意に落ちたことが示されており、いわばカナリアが死んだのだから、炭鉱夫の命が危険に曝されていることを確認するのに十分な数の炭鉱夫が死んで統計的有意性が得られるのを待つような真似をすべきではない。
  • 4月時点のミネソタと今後の全米の10万人当たりの新規感染者がほぼ等しいと仮定して(実際には4月時点のミネソタのその数字は30人/日で、現在の全米の数字は45人/日なので、これは感染率が下がるという楽観的な見通しに基づいていることになる)、メイヨーの2万人当たり毎月11人のブレークスルー感染を2億人に適用すると、毎月11万人がブレークスルー感染することになる。そのうち10人に1人が入院することになるとすると、2回接種した人で入院する人が全米で毎月11,000人新たに発生することになる。これは無視できる数字ではない。
  • メイヨー研究によると、ファイザーワクチンの感染に対する有効率は当初の約90%から数か月後には約50%に下がる。ブースター接種によって90%に戻るとすると、毎月の新規ブレークスルー感染は10万人*2から2万人に下がることになる。
  • ただ、メイヨー研究の入院者数のトレンドだけからは、ブースター接種によって入院者数がどのように変化するかについては何も言えない。しかし、ブレークスルー感染が毎月10万人から2万人に減った時に入院者数が1万人で変わらない、と仮定するのは現実的とは言えない。ブレークスルー感染が1/5になるならば、入院も1/5になって2000人になると考えるのが前述のロジックからして最善の推計。
  • FDAでブースター接種の承認をやめさせようとしている専門家の人は、なぜ入院確率を下げる3回目の接種を非合法にしたいのか説明してほしい。


小さな効果量から何かを言うことの困難さはいみじくも前回紹介したRechtのブログエントリで指摘されたところだが、ローマーは入院者数ではなく感染者数に着目することで、期せずしてRechtの言うラザフォード的指針に沿った議論を展開しているように思われる*3

*1:cf. メイヨー・クリニック - Wikipedia

*2:簡単化のためかローマーはここで前述の11万人を10万人に丸めている。

*3:ローマーはまた(上記のまとめでは省略したが)ともすればサブグループ化するなどしてブースター接種に関して小さな統計量を得る方向に走っている研究者に対して批判を展開している。

バングラデシュのマスク研究から何を結論すべきか?

バングラデシュでのRCTの結果を基に、マスクはコロナ感染防止に有効である、という報告が出されたが、UCバークレー機械学習の研究者であるBen Rechtが「Effect size is significantly more important than statistical significance.」と題したブログエントリでその結果に疑問を呈し、タイラー・コーエンが表題のコメント(原文は「What should we conclude from the Bangladesh mask study?」)を付けてそれにリンクした。以下はエントリの概要。

  • クラスターRCTということで、研究では患者ではなく村をランダム化した。サンプルサイズは大きく見えるが(34万人)、村単位で処置を適用したため、実効サンプル数は600に過ぎない*1。人口動態特性を基に村はペアに分けられ、片方の村は処置群、もう片方は対照群にランダムに割り当てられた。処置群の300の村は、無料のマスク、マスクの重要性の情報、地域の指導者によるロールモデル、対面でのリマインダーを8週間受け取った。対照群の300村は処置を一切受けなかった。
  • 研究では、有症状者数(処置群13,273、対照群13,893)、血液検査への同意者数(処置群5,414、対照群5,538)、コロナ抗体検査のために血液が採取された人数(処置群5,006、対照群4,971)を正確に報告しているが、不思議なことに、実際の陽性者数はプレプリントのどこにも掲載されていない。
  • 報告によれば、対照群の人の0.76%が有症状で血清反応陽性となったのに対し、処置群ではその数字は0.69%であった。リスクは1.1だけ減少したのであり、論文の著者たちはこれは統計的に有意であるとしている。
  • しかし、陽性率の計算法が論文では明確に示されていないため、人数を通算して計算したのか、各村で計算したものを平均したのかが不明である。
    • 仮に1万人の村と6000人の村の2つのペアがあり、前者で処置村に136人、対照村に75人の陽性者が出て、後者で処置村に0人、対照村に46人の陽性者が出たとする。
      • 人数を通算すると、処置群は136/16000=0.85%、対照群は121/16000=0.76%となり、対照群の方が1.1倍良いことになる。
      • 各村で計算したものを平均すると、処置群は(136/10000+0/6000)/2=0.68%、対照群は(75/10000+46/6000)/2=0.76%となり、処置群の方が1.1倍良いことになる。
    • いずれにせよ、この例では32,000人に対する15人の違いを論じていることになる。結果の数字が小さい時には、問題が特に難しくなる。
  • 効果量が小さくて測定に敏感である時には、統計的有意性に助けを求めるのが常である。著者たちは「正規の群と独立性による一般化最小二乗法(GLM)」と述べているが、要は正規分布からサンプルされたものとして通常の最小二乗回帰を走らせた、ということである。表の注記からすると、各村の陽性率を平均が村クラスターの変数とその他の何らかの共変量の関数である正規分布に従うものとしたように思われる。それから村単位の陽性率をモデルで推計し、それを平均して処置群と対照群の最終結果を計算したようである。
  • ガウス分布のモデルは、コーディングを容易にし、通常の計量経済学の様式で結果を報告することを可能にするかもしれないが、ほぼ確実に間違っている。負の数を取れないカウント数は正規分布に従うはずがない。実際、300村中36で感染者数がゼロであるが、ガウス分布が良い近似になっていればそうした結果はまずあり得ない。著者たちはモデルの前提を調整することなく単にそれらの村を回帰から除いているが、それは平均陽性率の過大評価につながる。
  • 論文ではそこからp値と信頼区間を計算しているが、モデルが正しくない場合はそれらの数字は無意味である。
  • 論文の著者たちは自分のような批判者を予期して頑健性のチェックを行っており、主モデルの前提を排してカウント数がポアソン分布に従うとしたモデルでも効果量は同様だった、としている。しかし、ポアソン分布は独立事象が一定の割合で起こるモデルであり、感染に無関係な心臓発作のモデルとしては良いが、感染モデルとしてはやはり現実的ではない。感染はランダムではなく、他の患者との相互作用によって複雑な動学的拡散が生じ、お馴染みの流行曲線が生成される。数学的に言えば、同様のアルゴリズムで計算される一般化された線形モデルが同じ効果量の推計値を出しても不思議ではないが、両モデルとも間違っているので、両者の計算結果を掲載しても何かの保証になるとは思われない。
  • こうした統計分析を提示するよりは、陽性者の生データを掲載して読者が解釈できるようにすべきではなかったか? 有症状者数が人数単位で正確に報告されているのであるから、猶更そうである。
  • ワクチンのRCTと比較すると問題がはっきりする。RCTが因果推定の「黄金律」であるとするならば、ワクチン研究はRCTのもっとも純粋な形であり、RCTの「黄金律」である。ワクチン試験は盲検化が容易であり、臨床的均衡*2がほぼ常にあり、世界人口からほぼむらなくサンプリングでき、統計的な検証が普通にできる。ファイザーワクチンの場合、効果量は非常に大きく(リスク減少が20倍)、信頼区間は独立した2値ランダム変数からの正確な計算にきちんと基づいている。そもそも効果量が大きいので信頼区間はそれほど重要ではない。カプラン・マイヤー曲線を眺めればmRNAワクチンの驚くべき効果は堪能できる。
  • 残念ながら、もちろん大抵の効果量は20の水準にはなく、2以下が普通であり、今回のマスク研究では1.1以下だった。そうした研究は珍しくない。
  • 効果量ではなくp値を巡って争うのは、木を見て森を見ないことである。アーネスト・ラザフォードの有名な言葉に「実験で統計学が必要になったら、もっと良い実験をすべきだった、ということだ」というものがある。それをより穏当にした指針が科学的調査に適用されるべきと考える。即ち、効果量が小さくて精緻な統計学が必要になったら、効果が本物ではないことを意味するのではないか。

*1:サンプルサイズ(sample size)、サンプル数(number of samples)の表記は原文ママ

*2:cf. Clinical equipoise - Wikipediaこちらの資料では「臨床実験においては、いずれの治療法がよいかわからない状態にのみ複数の治療法の比較を行うことが正当化されるが、この「いずれの治療法がよいかわからない状態」について、臨床的平衡 clinical equipoise という概念が提唱されている。科学的な証拠に基づく理論的均衡は臨床家の好みや意思決定の複雑さにより変動するので、もろく崩れやすい。これに対して、臨床的均衡すなわち臨床的エキスパートの間でいずれの治療法がよいかのコンセンサスが存在しない状態が比較実験を行うことで disturb されると期待できる場合にのみ、比較実験を開始することが許される、という考え方である。」と解説されている。

ビッグデータを使って気候変動対策に情報を提供するソロモン・シャンのプロフィール

と題したエントリ(原題は「Profile*1 of Solomon Hsiang, who uses big data to inform climate change policies..」)でMostly Economicsが、IMFの季刊誌Finance & Development9月号の人物紹介記事の冒頭を引用している。この季刊誌の記事は本ブログでも何回か紹介したことがあるが、日本語版があることに今回初めて気づいたので*2その該当記事の訳と併せてMostly Economicsの引用部を紹介してみる。

Solomon Hsiang is a smart man. He listens to his wife.
Over breakfast a day or two after the California pandemic lockdown in March 2020, Google researcher Brenda Chen asked a question. Couldn’t her husband’s Global Policy Laboratory at the University of California, Berkeley, shed some light on the world’s fight against COVID-19?
“A lab called ‘the Global Policy Lab’ should be able to tackle this question,” she recalls saying.
He raised it with his team on a conference call that morning. The lab uses sophisticated statistical analysis of economic data—econometrics—and advanced computing power to address questions related to climate change, development, violence, migration, and disasters. When the group reconvened after a day of research, “we realized that nobody knew if all these lockdown policies would really work,” says Hsiang, a 37-year-old economist and climate physicist.
Over the next 10 days, Hsiang and 14 researchers worked around the clock gathering vast amounts of data on dozens of pandemic policies such as business and school closings, travel bans, social distancing mandates, and quarantines from China, France, Iran, Italy, South Korea, and the United States. Applying econometric tools, they found that the anti-contagion policies significantly slowed the spread of disease, averting 495 million infections. The paper they cranked out appeared June 8, 2020, in the journal Nature. It has been accessed 309,000 times and cited by 361 news outlets, according to Nature.
The episode shows how Hsiang (pronounced “Shung”) is helping to transform the way economists conduct research. He’s leading a new generation in leveraging newly available giant databases, massive modern computing power, and large, interdisciplinary teams to address thorny global issues such as climate change and the pandemic. Previous work on the economics of climate change relied largely on sweeping assumptions rather than hard data and was carried out mostly by solo researchers or a few collaborators.
Within just a decade of earning his doctorate from Columbia, Hsiang has published a raft of startling and sometimes controversial findings. He and various research partners showed that rising temperatures increase civil conflict and slow economic growth; that as tropical storms grow more intense, the economic effects are more severe and last longer; and that trying to fight climate change by mimicking volcanic eruptions to dim the sun would reduce global crop yields. Now he’s leading researchers in a years-long effort to calculate the true cost worldwide of greenhouse gas carbon emissions.
IMF訳)
ソロモン・シャンは賢明だ。妻の話にきちんと耳を傾ける。
2020年3月、カリフォルニア州パンデミックのためにロックダウンとなった翌日か翌々日、グーグルのリサーチャー、ブレンダ・チェンは朝食をとりながら夫に尋ねた。あなたが勤めるカリフォルニア大学バークレー校の「グローバル・ポリシー研究所」は、世界の新型コロナウイルス感染症との闘いに何らかの光明を投じられるのではないか、と。
「『グローバル・ポリシー研究所』を標榜する組織なら、この問題に取り組めるはず」と言ったとチェンは記憶している。
シャンはその日午前のチームとのカンファレンスコールで、この疑問を投げかけた。グローバル・ポリシー研究所は経済データの高度な統計分析(計量経済学)と、高度なコンピューティング能力を駆使して、気候変動、開発、暴力、人口移動、災害に関する問題に取り組んでいる。チームは1日かけて調査を行い、翌日再び会議を開いた。「当時実施されていた様々なロックダウン政策が本当に機能するのか、誰もわかっていないことに私たちは気づいた」と、37歳の経済学者であり気象物理学者のシャンは語る。
それから10日間、シャンは14人の研究者とともに昼夜を問わず働き、中国、フランス、イラン、イタリア、韓国、アメリカの数十のパンデミック政策に関する膨大なデータを集めた。そこには企業や学校の閉鎖、移動の禁止、ソーシャルディスタンスの義務づけ、隔離などの政策が含まれていた。計量経済学のツールで分析した結果、感染防止対策は新型コロナの感染拡大を大幅に遅らせ、4億9500万人の感染を防ぐ効果があることがわかった。チームがまとめた論文は2020年6月8日に科学誌『ネイチャー』に掲載された。同誌によると、アクセス回数は30万9000回に達し、361のニュースメディアに引用されたという。
このエピソードからは、シャンがどのように経済学者の研究のあり方に変革をもたらしつつあるかがわかる。新たに利用できるようになった巨大なデータベース、今日の途方もないコンピューティング能力、そして大規模な学際的チームを動員し、気候変動やパンデミックのような厄介な地球規模の問題を解決する、新世代の経済学者の先駆者といえる。気候変動の経済学に関する従来の研究は、確固たるデータよりも主にざっくりとした仮説に基づいており、単独あるいは少人数で行われるケースがほとんどだった。

上記のコロナ禍の研究を紹介したUCバークレーのニュースリリースでは、研究対象の各国別の回避された感染者数をまとめている。

回避された感染者数(確認された感染者数ベース) 同(総感染者数ベース)
中国 3700万 2億8500万
韓国 1150万 3800万
イタリア 210万 4900万
イラン 500万 5400万
フランス 140万 4500万
米国 480万 6000万


IMF記事では、この後シャンの気候変動への取り組みを紹介するとともに、彼への批判も紹介している。以下は記事の末尾。

Of course, Hsiang has detractors. The University of Sussex’s Richard Tol, the creator of the widely used FUND model for estimating climate change’s economic effects, has been a frequent critic.
“My main issue is that he uses weather shocks to study climate change,” Tol says. “Weather shocks are unexpected. Climate change is slow and predictable. As a result, he overstates the impacts.”
Hsiang rejects that, saying, “we have been doing a lot of innovation to study how populations adapt,” and argues that his use of data and econometrics produces quite different findings from the FUND model.
Others say it’s a waste of time to calculate the cost of carbon because there will always be too much missing data to get it right. “We don’t need a full optimization model to make certain decisions,” write Nobel laureate economist Joseph Stiglitz and Britain’s Nicholas Stern in a February 2021 paper. Policies should be built around the goals set in the 2015 Paris Agreement, they say.
Hsiang maintains that policymakers need to rely on data-based findings. “Almost everyone’s intuition for the role of the climate in the economy is not right,” he says.
“The advent of large-scale data collection, high-powered computing, and the application of science to policy means that we can now build transparent and evidence-based systems to guide our thinking,” he says. “The future of managingall planetary resources fairly and sustainably, even beyond climate change, will rely on these tools.”
As for the alarming effects of climate change and the world’s tardy, confused, and incoherent response, Hsiang takes a long view, harking back to the days when leaders consulted oracles to divine the future.
“We are at the state of scientific sophistication where we can understand future pathways and make thoughtful decisions in advance,” he says. “This is the first time in human history where we saw something this big coming and have the opportunity to do something about it.”
IMF訳)
もちろん、シャンに批判的な声もある。気候変動の経済的影響を評価するのに広く使われているFUNDモデルの生みの親であるサセックス大学のリチャード・トルは、たびたびシャンを批判してきた。
「私が最も問題だと思うのは、シャンが天候ショックを使って気候変動を分析していることです。天候ショックは予測できませんが、気候変動はゆっくりと進展し、予測可能です。この結果、影響を過大評価しています」とトルは話す。
シャンはこの見方を否定する。「私たちは個体群の適応のあり方を研究するため、多くのイノベーションを重ねてきました」と言い、データと計量経済学を使った自らの研究では、FUNDモデルとは大きく異なる結果が出ていると主張する。
炭素のコストを計算するのは時間の無駄だという指摘もある。常に欠けているデータが多すぎて、正しい結果を得ることはできないためだ。ノーベル経済学賞を受賞したジョセフ・スティグリッツとイギリスの経済学者ニコラス・スターンは2021年2月に発表した論文に「完全な最適化モデルを必要としない意思決定もある」と書いている。政策は2015年のパリ協定で設定された目標に基づいて構築すべきだと2人は言う。
シャンは、政策当局者はデータに基づく研究成果を参考とすべきだと主張する。「経済における気候の役割について、ほとんどの人の直感は間違っています」。
「大規模なデータ収集や高性能なコンピューティングの登場、そして科学の政策への応用が実現したことで、今では透明性のあるエビデンスに基づくシステムを構築し、判断の参考とすることが可能になりました」とシャンは語る。「たとえ気候変動が起きても、将来にわたって地球上のすべての資源を公平かつ持続可能に管理できるかは、こうしたツールにかかっているのです」。
憂慮すべき気候変動の影響、それに対して遅々として進まない、混乱した支離滅裂な世界の対応については、指導者たちが未来を神託*3に頼っていた時代を思い起こしながら、長期的視点で考えている。
「科学が発達した今、私たちは未来の行方を理解し、それに先立って思慮深い決定を下せる状態にあります」とシャンは語る。「これほど大きな出来事が起こることを予見し、それに対して何らかの手を打つ機会があるのは、人類史上初めてのことです」。

*1:元エントリではPofileとtypoしている。

*2:バックナンバーは2017年9月号から見られる。それ以前も2012年9月号2011年9月-2012年6月の記事の一部IMFのサイトに上がっている。

*3:元記事では「信託」となっていたのを修正。

AIの害

というNBER論文(原題は「Harms of AI」)をアセモグルが上げているungated版)。以下はその要旨。

This essay discusses several potential economic, political and social costs of the current path of AI technologies. I argue that if AI continues to be deployed along its current trajectory and remains unregulated, it may produce various social, economic and political harms. These include: damaging competition, consumer privacy and consumer choice; excessively automating work, fueling inequality, inefficiently pushing down wages, and failing to improve worker productivity; and damaging political discourse, democracy's most fundamental lifeblood. Although there is no conclusive evidence suggesting that these costs are imminent or substantial, it may be useful to understand them before they are fully realized and become harder or even impossible to reverse, precisely because of AI's promising and wide-reaching potential. I also suggest that these costs are not inherent to the nature of AI technologies, but are related to how they are being used and developed at the moment - to empower corporations and governments against workers and citizens. As a result, efforts to limit and reverse these costs may need to rely on regulation and policies to redirect AI research. Attempts to contain them just by promoting competition may be insufficient.
(拙訳)
本稿は、AI技術の現在の経路から生じ得る幾つかの経済的、政治的、社会的コストを論じる。AIが引き続き現在の軌道に沿って展開し、規制されないままならば、様々な社会的、経済的、政治的な害をもたらすであろう、と私は論じる。例えば、競争や消費者のプライバシーや消費者の選択への損害、仕事の過度な自動化、格差拡大の助長、賃金の非効率な押し下げ、労働者の生産性の改善の失敗、民主主義の最も基本的な生命線である政治言論への損害、である。これらのコストがすぐにでも生じる、もしくは顕著であることを示す決定的な証拠はないが、まさにAIが有望で裾野の広い可能性を有しているがゆえに、そうしたコストが完全に現実化して元に戻すのが困難ないし不可能になる前に理解しておくことは有用である。これらのコストはAI技術の本質に根差したものではなく、現時点の利用と開発の仕方――労働者や市民に不利になる力を企業や政府に与えている――に関わっている、とも私は論じる。そのため、これらのコストを制限し引き下げる取り組みは、AI研究を方向転換させるための規制と政策に頼らざるを得ないであろう。競争を促進してそれらを抑え込もうという試みだけでは不十分であろう。