バングラデシュのマスク研究から何を結論すべきか?

バングラデシュでのRCTの結果を基に、マスクはコロナ感染防止に有効である、という報告が出されたが、UCバークレー機械学習の研究者であるBen Rechtが「Effect size is significantly more important than statistical significance.」と題したブログエントリでその結果に疑問を呈し、タイラー・コーエンが表題のコメント(原文は「What should we conclude from the Bangladesh mask study?」)を付けてそれにリンクした。以下はエントリの概要。

  • クラスターRCTということで、研究では患者ではなく村をランダム化した。サンプルサイズは大きく見えるが(34万人)、村単位で処置を適用したため、実効サンプル数は600に過ぎない*1。人口動態特性を基に村はペアに分けられ、片方の村は処置群、もう片方は対照群にランダムに割り当てられた。処置群の300の村は、無料のマスク、マスクの重要性の情報、地域の指導者によるロールモデル、対面でのリマインダーを8週間受け取った。対照群の300村は処置を一切受けなかった。
  • 研究では、有症状者数(処置群13,273、対照群13,893)、血液検査への同意者数(処置群5,414、対照群5,538)、コロナ抗体検査のために血液が採取された人数(処置群5,006、対照群4,971)を正確に報告しているが、不思議なことに、実際の陽性者数はプレプリントのどこにも掲載されていない。
  • 報告によれば、対照群の人の0.76%が有症状で血清反応陽性となったのに対し、処置群ではその数字は0.69%であった。リスクは1.1だけ減少したのであり、論文の著者たちはこれは統計的に有意であるとしている。
  • しかし、陽性率の計算法が論文では明確に示されていないため、人数を通算して計算したのか、各村で計算したものを平均したのかが不明である。
    • 仮に1万人の村と6000人の村の2つのペアがあり、前者で処置村に136人、対照村に75人の陽性者が出て、後者で処置村に0人、対照村に46人の陽性者が出たとする。
      • 人数を通算すると、処置群は136/16000=0.85%、対照群は121/16000=0.76%となり、対照群の方が1.1倍良いことになる。
      • 各村で計算したものを平均すると、処置群は(136/10000+0/6000)/2=0.68%、対照群は(75/10000+46/6000)/2=0.76%となり、処置群の方が1.1倍良いことになる。
    • いずれにせよ、この例では32,000人に対する15人の違いを論じていることになる。結果の数字が小さい時には、問題が特に難しくなる。
  • 効果量が小さくて測定に敏感である時には、統計的有意性に助けを求めるのが常である。著者たちは「正規の群と独立性による一般化最小二乗法(GLM)」と述べているが、要は正規分布からサンプルされたものとして通常の最小二乗回帰を走らせた、ということである。表の注記からすると、各村の陽性率を平均が村クラスターの変数とその他の何らかの共変量の関数である正規分布に従うものとしたように思われる。それから村単位の陽性率をモデルで推計し、それを平均して処置群と対照群の最終結果を計算したようである。
  • ガウス分布のモデルは、コーディングを容易にし、通常の計量経済学の様式で結果を報告することを可能にするかもしれないが、ほぼ確実に間違っている。負の数を取れないカウント数は正規分布に従うはずがない。実際、300村中36で感染者数がゼロであるが、ガウス分布が良い近似になっていればそうした結果はまずあり得ない。著者たちはモデルの前提を調整することなく単にそれらの村を回帰から除いているが、それは平均陽性率の過大評価につながる。
  • 論文ではそこからp値と信頼区間を計算しているが、モデルが正しくない場合はそれらの数字は無意味である。
  • 論文の著者たちは自分のような批判者を予期して頑健性のチェックを行っており、主モデルの前提を排してカウント数がポアソン分布に従うとしたモデルでも効果量は同様だった、としている。しかし、ポアソン分布は独立事象が一定の割合で起こるモデルであり、感染に無関係な心臓発作のモデルとしては良いが、感染モデルとしてはやはり現実的ではない。感染はランダムではなく、他の患者との相互作用によって複雑な動学的拡散が生じ、お馴染みの流行曲線が生成される。数学的に言えば、同様のアルゴリズムで計算される一般化された線形モデルが同じ効果量の推計値を出しても不思議ではないが、両モデルとも間違っているので、両者の計算結果を掲載しても何かの保証になるとは思われない。
  • こうした統計分析を提示するよりは、陽性者の生データを掲載して読者が解釈できるようにすべきではなかったか? 有症状者数が人数単位で正確に報告されているのであるから、猶更そうである。
  • ワクチンのRCTと比較すると問題がはっきりする。RCTが因果推定の「黄金律」であるとするならば、ワクチン研究はRCTのもっとも純粋な形であり、RCTの「黄金律」である。ワクチン試験は盲検化が容易であり、臨床的均衡*2がほぼ常にあり、世界人口からほぼむらなくサンプリングでき、統計的な検証が普通にできる。ファイザーワクチンの場合、効果量は非常に大きく(リスク減少が20倍)、信頼区間は独立した2値ランダム変数からの正確な計算にきちんと基づいている。そもそも効果量が大きいので信頼区間はそれほど重要ではない。カプラン・マイヤー曲線を眺めればmRNAワクチンの驚くべき効果は堪能できる。
  • 残念ながら、もちろん大抵の効果量は20の水準にはなく、2以下が普通であり、今回のマスク研究では1.1以下だった。そうした研究は珍しくない。
  • 効果量ではなくp値を巡って争うのは、木を見て森を見ないことである。アーネスト・ラザフォードの有名な言葉に「実験で統計学が必要になったら、もっと良い実験をすべきだった、ということだ」というものがある。それをより穏当にした指針が科学的調査に適用されるべきと考える。即ち、効果量が小さくて精緻な統計学が必要になったら、効果が本物ではないことを意味するのではないか。

*1:サンプルサイズ(sample size)、サンプル数(number of samples)の表記は原文ママ

*2:cf. Clinical equipoise - Wikipediaこちらの資料では「臨床実験においては、いずれの治療法がよいかわからない状態にのみ複数の治療法の比較を行うことが正当化されるが、この「いずれの治療法がよいかわからない状態」について、臨床的平衡 clinical equipoise という概念が提唱されている。科学的な証拠に基づく理論的均衡は臨床家の好みや意思決定の複雑さにより変動するので、もろく崩れやすい。これに対して、臨床的均衡すなわち臨床的エキスパートの間でいずれの治療法がよいかのコンセンサスが存在しない状態が比較実験を行うことで disturb されると期待できる場合にのみ、比較実験を開始することが許される、という考え方である。」と解説されている。

ビッグデータを使って気候変動対策に情報を提供するソロモン・シャンのプロフィール

と題したエントリ(原題は「Profile*1 of Solomon Hsiang, who uses big data to inform climate change policies..」)でMostly Economicsが、IMFの季刊誌Finance & Development9月号の人物紹介記事の冒頭を引用している。この季刊誌の記事は本ブログでも何回か紹介したことがあるが、日本語版があることに今回初めて気づいたので*2その該当記事の訳と併せてMostly Economicsの引用部を紹介してみる。

Solomon Hsiang is a smart man. He listens to his wife.
Over breakfast a day or two after the California pandemic lockdown in March 2020, Google researcher Brenda Chen asked a question. Couldn’t her husband’s Global Policy Laboratory at the University of California, Berkeley, shed some light on the world’s fight against COVID-19?
“A lab called ‘the Global Policy Lab’ should be able to tackle this question,” she recalls saying.
He raised it with his team on a conference call that morning. The lab uses sophisticated statistical analysis of economic data—econometrics—and advanced computing power to address questions related to climate change, development, violence, migration, and disasters. When the group reconvened after a day of research, “we realized that nobody knew if all these lockdown policies would really work,” says Hsiang, a 37-year-old economist and climate physicist.
Over the next 10 days, Hsiang and 14 researchers worked around the clock gathering vast amounts of data on dozens of pandemic policies such as business and school closings, travel bans, social distancing mandates, and quarantines from China, France, Iran, Italy, South Korea, and the United States. Applying econometric tools, they found that the anti-contagion policies significantly slowed the spread of disease, averting 495 million infections. The paper they cranked out appeared June 8, 2020, in the journal Nature. It has been accessed 309,000 times and cited by 361 news outlets, according to Nature.
The episode shows how Hsiang (pronounced “Shung”) is helping to transform the way economists conduct research. He’s leading a new generation in leveraging newly available giant databases, massive modern computing power, and large, interdisciplinary teams to address thorny global issues such as climate change and the pandemic. Previous work on the economics of climate change relied largely on sweeping assumptions rather than hard data and was carried out mostly by solo researchers or a few collaborators.
Within just a decade of earning his doctorate from Columbia, Hsiang has published a raft of startling and sometimes controversial findings. He and various research partners showed that rising temperatures increase civil conflict and slow economic growth; that as tropical storms grow more intense, the economic effects are more severe and last longer; and that trying to fight climate change by mimicking volcanic eruptions to dim the sun would reduce global crop yields. Now he’s leading researchers in a years-long effort to calculate the true cost worldwide of greenhouse gas carbon emissions.
IMF訳)
ソロモン・シャンは賢明だ。妻の話にきちんと耳を傾ける。
2020年3月、カリフォルニア州パンデミックのためにロックダウンとなった翌日か翌々日、グーグルのリサーチャー、ブレンダ・チェンは朝食をとりながら夫に尋ねた。あなたが勤めるカリフォルニア大学バークレー校の「グローバル・ポリシー研究所」は、世界の新型コロナウイルス感染症との闘いに何らかの光明を投じられるのではないか、と。
「『グローバル・ポリシー研究所』を標榜する組織なら、この問題に取り組めるはず」と言ったとチェンは記憶している。
シャンはその日午前のチームとのカンファレンスコールで、この疑問を投げかけた。グローバル・ポリシー研究所は経済データの高度な統計分析(計量経済学)と、高度なコンピューティング能力を駆使して、気候変動、開発、暴力、人口移動、災害に関する問題に取り組んでいる。チームは1日かけて調査を行い、翌日再び会議を開いた。「当時実施されていた様々なロックダウン政策が本当に機能するのか、誰もわかっていないことに私たちは気づいた」と、37歳の経済学者であり気象物理学者のシャンは語る。
それから10日間、シャンは14人の研究者とともに昼夜を問わず働き、中国、フランス、イラン、イタリア、韓国、アメリカの数十のパンデミック政策に関する膨大なデータを集めた。そこには企業や学校の閉鎖、移動の禁止、ソーシャルディスタンスの義務づけ、隔離などの政策が含まれていた。計量経済学のツールで分析した結果、感染防止対策は新型コロナの感染拡大を大幅に遅らせ、4億9500万人の感染を防ぐ効果があることがわかった。チームがまとめた論文は2020年6月8日に科学誌『ネイチャー』に掲載された。同誌によると、アクセス回数は30万9000回に達し、361のニュースメディアに引用されたという。
このエピソードからは、シャンがどのように経済学者の研究のあり方に変革をもたらしつつあるかがわかる。新たに利用できるようになった巨大なデータベース、今日の途方もないコンピューティング能力、そして大規模な学際的チームを動員し、気候変動やパンデミックのような厄介な地球規模の問題を解決する、新世代の経済学者の先駆者といえる。気候変動の経済学に関する従来の研究は、確固たるデータよりも主にざっくりとした仮説に基づいており、単独あるいは少人数で行われるケースがほとんどだった。

上記のコロナ禍の研究を紹介したUCバークレーのニュースリリースでは、研究対象の各国別の回避された感染者数をまとめている。

回避された感染者数(確認された感染者数ベース) 同(総感染者数ベース)
中国 3700万 2億8500万
韓国 1150万 3800万
イタリア 210万 4900万
イラン 500万 5400万
フランス 140万 4500万
米国 480万 6000万


IMF記事では、この後シャンの気候変動への取り組みを紹介するとともに、彼への批判も紹介している。以下は記事の末尾。

Of course, Hsiang has detractors. The University of Sussex’s Richard Tol, the creator of the widely used FUND model for estimating climate change’s economic effects, has been a frequent critic.
“My main issue is that he uses weather shocks to study climate change,” Tol says. “Weather shocks are unexpected. Climate change is slow and predictable. As a result, he overstates the impacts.”
Hsiang rejects that, saying, “we have been doing a lot of innovation to study how populations adapt,” and argues that his use of data and econometrics produces quite different findings from the FUND model.
Others say it’s a waste of time to calculate the cost of carbon because there will always be too much missing data to get it right. “We don’t need a full optimization model to make certain decisions,” write Nobel laureate economist Joseph Stiglitz and Britain’s Nicholas Stern in a February 2021 paper. Policies should be built around the goals set in the 2015 Paris Agreement, they say.
Hsiang maintains that policymakers need to rely on data-based findings. “Almost everyone’s intuition for the role of the climate in the economy is not right,” he says.
“The advent of large-scale data collection, high-powered computing, and the application of science to policy means that we can now build transparent and evidence-based systems to guide our thinking,” he says. “The future of managingall planetary resources fairly and sustainably, even beyond climate change, will rely on these tools.”
As for the alarming effects of climate change and the world’s tardy, confused, and incoherent response, Hsiang takes a long view, harking back to the days when leaders consulted oracles to divine the future.
“We are at the state of scientific sophistication where we can understand future pathways and make thoughtful decisions in advance,” he says. “This is the first time in human history where we saw something this big coming and have the opportunity to do something about it.”
IMF訳)
もちろん、シャンに批判的な声もある。気候変動の経済的影響を評価するのに広く使われているFUNDモデルの生みの親であるサセックス大学のリチャード・トルは、たびたびシャンを批判してきた。
「私が最も問題だと思うのは、シャンが天候ショックを使って気候変動を分析していることです。天候ショックは予測できませんが、気候変動はゆっくりと進展し、予測可能です。この結果、影響を過大評価しています」とトルは話す。
シャンはこの見方を否定する。「私たちは個体群の適応のあり方を研究するため、多くのイノベーションを重ねてきました」と言い、データと計量経済学を使った自らの研究では、FUNDモデルとは大きく異なる結果が出ていると主張する。
炭素のコストを計算するのは時間の無駄だという指摘もある。常に欠けているデータが多すぎて、正しい結果を得ることはできないためだ。ノーベル経済学賞を受賞したジョセフ・スティグリッツとイギリスの経済学者ニコラス・スターンは2021年2月に発表した論文に「完全な最適化モデルを必要としない意思決定もある」と書いている。政策は2015年のパリ協定で設定された目標に基づいて構築すべきだと2人は言う。
シャンは、政策当局者はデータに基づく研究成果を参考とすべきだと主張する。「経済における気候の役割について、ほとんどの人の直感は間違っています」。
「大規模なデータ収集や高性能なコンピューティングの登場、そして科学の政策への応用が実現したことで、今では透明性のあるエビデンスに基づくシステムを構築し、判断の参考とすることが可能になりました」とシャンは語る。「たとえ気候変動が起きても、将来にわたって地球上のすべての資源を公平かつ持続可能に管理できるかは、こうしたツールにかかっているのです」。
憂慮すべき気候変動の影響、それに対して遅々として進まない、混乱した支離滅裂な世界の対応については、指導者たちが未来を神託*3に頼っていた時代を思い起こしながら、長期的視点で考えている。
「科学が発達した今、私たちは未来の行方を理解し、それに先立って思慮深い決定を下せる状態にあります」とシャンは語る。「これほど大きな出来事が起こることを予見し、それに対して何らかの手を打つ機会があるのは、人類史上初めてのことです」。

*1:元エントリではPofileとtypoしている。

*2:バックナンバーは2017年9月号から見られる。それ以前も2012年9月号2011年9月-2012年6月の記事の一部IMFのサイトに上がっている。

*3:元記事では「信託」となっていたのを修正。

AIの害

というNBER論文(原題は「Harms of AI」)をアセモグルが上げているungated版)。以下はその要旨。

This essay discusses several potential economic, political and social costs of the current path of AI technologies. I argue that if AI continues to be deployed along its current trajectory and remains unregulated, it may produce various social, economic and political harms. These include: damaging competition, consumer privacy and consumer choice; excessively automating work, fueling inequality, inefficiently pushing down wages, and failing to improve worker productivity; and damaging political discourse, democracy's most fundamental lifeblood. Although there is no conclusive evidence suggesting that these costs are imminent or substantial, it may be useful to understand them before they are fully realized and become harder or even impossible to reverse, precisely because of AI's promising and wide-reaching potential. I also suggest that these costs are not inherent to the nature of AI technologies, but are related to how they are being used and developed at the moment - to empower corporations and governments against workers and citizens. As a result, efforts to limit and reverse these costs may need to rely on regulation and policies to redirect AI research. Attempts to contain them just by promoting competition may be insufficient.
(拙訳)
本稿は、AI技術の現在の経路から生じ得る幾つかの経済的、政治的、社会的コストを論じる。AIが引き続き現在の軌道に沿って展開し、規制されないままならば、様々な社会的、経済的、政治的な害をもたらすであろう、と私は論じる。例えば、競争や消費者のプライバシーや消費者の選択への損害、仕事の過度な自動化、格差拡大の助長、賃金の非効率な押し下げ、労働者の生産性の改善の失敗、民主主義の最も基本的な生命線である政治言論への損害、である。これらのコストがすぐにでも生じる、もしくは顕著であることを示す決定的な証拠はないが、まさにAIが有望で裾野の広い可能性を有しているがゆえに、そうしたコストが完全に現実化して元に戻すのが困難ないし不可能になる前に理解しておくことは有用である。これらのコストはAI技術の本質に根差したものではなく、現時点の利用と開発の仕方――労働者や市民に不利になる力を企業や政府に与えている――に関わっている、とも私は論じる。そのため、これらのコストを制限し引き下げる取り組みは、AI研究を方向転換させるための規制と政策に頼らざるを得ないであろう。競争を促進してそれらを抑え込もうという試みだけでは不十分であろう。

日食と革命の記憶:中国についての実証結果

というNBER論文が上がっている。原題は「Eclipses and the Memory of Revolutions: Evidence from China」で、著者はMeng Miao(中国人民大)、Jacopo Ponticelli(ノースウエスタン大)、Yi Shao(北京大)。
以下はその要旨。

Why are certain communities more prone to anti-government protests than others? Do past rebellions lead to more protests today? We study the historical roots of social unrest using the experience of China. We document that counties with higher incidence of peasant uprisings against local government officials during the Qing dynasty period (1644-1912) also have higher incidence of anti-government protests in present-day China. To generate plausibly exogenous variation in the incidence of past protests, we exploit differences in the visibility and magnitude of solar eclipses during the Qing dynasty period. In the Confucian tradition, solar eclipses are considered a negative divine signal on the legitimacy of the ruler, facilitating the coordination of protest actions. We test this mechanism using detailed data on the timing and location of anti-government rebellions extracted from local chronicles. Counties within the totality zone of a solar eclipse were significantly more likely to experience a rebellion in the eclipse year. Leaders of early anti-Qing rebellions were recorded in popular culture and celebrated in temples, favoring the transmission of the memory of their actions across generations. The persistent effect of past protests is stronger in counties with such temples and memorials, consistent with a long-term memory of revolutions.
(拙訳)
なぜある地域は他よりも反政府の抗議活動をする傾向にあるのだろう? 過去の反乱が今日の抗議活動の多さにつながるのだろうか? 我々は中国の経験を用いて社会的騒乱の歴史的起源を研究した。我々は、清王朝時代(1644-1912)に地方政府の官僚に対する農民一揆が多く起きた県では、今日の中国における反政府抗議活動も多いことを立証した。過去の抗議活動について説得力のある外生的な変動を生成するため、我々は清王朝時代の日食の視認性と規模の違いを利用した。儒教の伝統においては、日食は統治者の正当性に関する天からの否定的なシグナルとされ、抗議活動の編成を容易にする。我々は、地方の年代記から抽出した政府に対する反乱の時期と場所に関する詳細なデータを用いて、この機構を検証した。皆既日食帯に含まれる県は、日食のあった年に有意に反乱が起きやすかった。初期の清王朝に対する反乱を率いた指導者は、大衆文化に記録され、寺院で祀られており、その行動の記憶が世代を超えて伝承されやすくなっている。過去の抗議活動の持続的な影響は、そうした寺院や記念碑がある県でより強くなっており、反乱の長期に亘る記憶と整合的である。

経済成長の過去と未来:半内生的見解

以前ここここでその研究内容を紹介したことのあるスタンフォード大のCharles I. Jonesが、表題のNBER論文(原題は「The Past and Future of Economic Growth: A Semi-Endogenous Perspective」)を先月上げている。以下はungated版の導入部からの引用。

The essence of semi-endogenous growth theory is simple. Romer (1990), in a contribution that was recognized with a Nobel Prize in 2018, emphasized that ideas are nonrival, or more colloquially, infinitely usable. ...
This infinite usability of ideas means that income per person depends on the aggregate stock of ideas, not the stock of ideas per person. ...
Where do ideas come from? The history of innovation is very clear on this point: new ideas are discovered through the hard work and serendipity of people. Just as more autoworkers will produce more cars, more researchers and innovators will produce more new ideas.
The surprise is that we are now done; that is all we need for the semi-endogenous model of economic growth. People produce ideas and, because of nonrivalry, those ideas raise everyone’s income. This means that income per person depends on the number of researchers. But then the growth rate of income per person depends on the growth rate of researchers, which is in turn ultimately equal to the growth rate of the population.
This paper develops the point more clearly in a formal model and then explores the past and future of economic growth using this framework. Section 2 lays out the mathematical model that parallels the words you’ve just read. Section 3 conducts a growth accounting exercise for the United States to make a key point: despite the fact that semi-endogenous growth theory implies that the entirety of long-run growth is ultimately due to population growth, this is far from true historically, say for the past 75 years. Instead, population growth contributes only around 20 percent of U.S. economic growth since 1950. Rising educational attainment, declining misallocation, and rising (global) research intensity account for more than 80 percent of growth. Importantly, this statement is true even in the semi-endogenous growth framework itself.
...
Sections 5 and 6 then turn to the future of economic growth. Section 5, building on the growth accounting exercise, highlights various reasons why economic growth could slow in the future, including the end of historical transition dynamics and slowing or even negative population growth. On the flip side, Section 6 points to possible changes that could keep growth from slowing or even increase the growth rate. One of these forces is “finding new Einsteins,” for example in China or India or among populations such as women who are historically underrepresented among innovators. Another force is automation and artificial intelligence: if machines can replace people in the production of ideas, it is possible for growth to speed up.
(拙訳)
半内生成長理論のエッセンスは単純である。ローマー(1990*1)は、2018年にノーベル賞を授与された貢献で、アイディアは非競合性を持つこと、あるいはもっと砕けた表現で言えば、無制限に使用できることを強調した。・・・
このようにアイディアを無制限に使用できることは、個人の所得が各人のアイディアのストックではなく、アイディアの総ストックに依存することを意味している。・・・
アイディアはどこで生まれるのか? イノベーションの歴史はこの点について非常に明解である。新たなアイディアは人々の大いなる努力と幸運によって発見されるのである。自動車工場の労働者が増えれば自動車の生産が増えるのとまったく同様に、研究者やイノベーターが増えれば新たなアイディアの生産が増える。
驚くべきことに、それで話は尽きている。経済成長の半内生モデルについて必要なのはそれだけだ。人々はアイディアを生産し、そして非競合性により、それらのアイディアは皆の所得を上げる。このことが意味するのは、各人の所得は研究者の数に依存する。すると各人の所得の成長率は研究者数の成長率に依存することになるが、それは究極的には人口成長率と等しい。
本稿はこの点を正式なモデルでより明確に展開し、その枠組みを用いて経済成長の過去と未来を探る。2節では、たった今読んでもらった文章に相応する数学モデルを示す。3節では米国について成長会計を計算し、主要な論点を提示する。半内生成長理論が含意するところによれば、長期成長は最終的には人口成長に因ることになるが、これは例えば過去75年の歴史からすると真実には程遠い。人口成長の寄与度は1950年以降の米国の経済成長の20%程度に過ぎない。教育程度の向上、不適切な配分の減少、(世界的な)研究の集約度の上昇が成長の80%以上を説明する。重要なのは、そのことが半内生成長の枠組み自体においてさえ真実であることだ。
・・・
次に5節と6節では、経済成長の未来について考える。5節では、成長会計計算に基づき、経済成長が今後鈍化する原因となり得る各種の要因に焦点を当てる。そうした要因としては、歴史的な転換の動きの終焉や、人口の成長鈍化ないし減少などが挙げられる。前向きな話として、6節では、成長の鈍化を避ける、もしくは成長率を上げる変化の可能性について論じる。そうした方向性の一つが、例えば中印や、これまでイノベーターがあまりいなかった女性のような集団から、「新たなアインシュタインを見い出す」ことである。別の方向性は自動化と人工知能である。アイディアの生産において機械が人間を置き換えれば、成長がスピードアップする可能性もある。

*1:cf. これ

パンデミックは社会的地位の(低い人ではなく)高い人の間で最初に拡大する:COVID-19とスペイン風邪の実証結果

という論文にタイラー・コーエンがリンクしている。原題は「Pandemics Initially Spread Among People of Higher (Not Lower) Social Status: Evidence From COVID-19 and the Spanish Flu」で、著者はJana B. Berkessel(マンハイム大)、Tobias Ebert(同)、Jochen E. Gebauer(同)、Thorsteinn Jonsson(デンマーク工科大)、Shigehiro Oishi*1バージニア大)。以下はその要旨。

According to a staple in the social sciences, pandemics particularly spread among people of lower social status. Challenging this staple, we hypothesize that it holds true in later phases of pandemics only. In the initial phases, by contrast, people of higher social status should be at the center of the spread. We tested our phase-sensitive hypothesis in two studies. In Study 1, we analyzed region-level COVID-19 infection data from 3,132 U.S. regions, 299 English regions, and 400 German regions. In Study 2, we analyzed historical data from 1,159,920 U.S. residents who witnessed the 1918/1919 Spanish Flu pandemic. For both pandemics, we found that the virus initially spread more rapidly among people of higher social status. In later phases, that effect reversed; people of lower social status were most exposed. Our results provide novel insights into the center of the spread during the critical initial phases of pandemics.
(拙訳)
社会科学の定型概念によれば、パンデミックは特に社会的地位の低い人々の間で広がる。この定型概念に挑戦する形で、我々は、そのことが当てはまるのはパンデミックの後期局面だけである、という仮説を立てた。初期局面では、それとは反対に、社会的地位の高い人が拡大の中心になる。我々はこの局面依存仮説を2つの研究で検証した。最初の研究では、3,132の米国の地域、299の英国の地域、および、400のドイツの地域からの地域レベルのCOVID-19感染データを分析した。二番目の研究では、1918-1919年のスペイン風邪パンデミックを経験した1,159,920人の米国人の過去データを分析した。両パンデミックにおいて、ウイルスは当初社会的地位の高い人の間でより急速に広がったことを我々は見い出した。後の局面では、それは反転し、社会的地位の低い人が最も感染した。我々の得た結果は、パンデミックで極めて重要な初期局面における感染の中心について新たな洞察を提供する。

以前こちらで紹介したモデルでは、「社会的繋がりが遥かに多く、より多様な人々の集合と感染を伴う社会的交流をする可能性も高い」人々が最初に罹患してスーパースプレッダーになると想定していたが、これはその理論を期せずして実証面から検証した論文と言える。そのモデル、および後続エントリで紹介したモデルでは、そうしたスーパースプレッダーから、それほど社会的交流が高くない人々に感染が広がることを抑えることの重要性が指摘されていたが、その点でもこの論文は同趣旨と言えるかと思われる。

なお、この論文の後半では、今回のパンデミックで繰り返される波について上記のパターンが当てはまるかどうかを考察している。論文で言う初期局面ではウイルスがまだ広まっておらず、社会的行動に制限が掛かっていないことを前提にしているので、第二波以降ではこの条件が満たされないように思われる。しかし、経済活動の再開などで社会活動が概ね正常化した後に来る波については、最初の波と同様の感染パターンを辿る可能性がある、とも指摘している。このことは、感染率の不均一性によって集団免疫に必要な水準が思ったよりも低くなる可能性を指摘した前述のモデルと併せて、日本の第5波が専門家の想定よりも早くピークを打った*2原因について一つの示唆を与えているようにも思われる。

結局準備預金はそれほど潤沢ではなかった

2019年9月のレポ金利急騰を調べたダレル・ダフィーらの表題の論文が8月に上がっていたNY連銀WP)。原題は「Reserves Were Not So Ample After All」で、著者はAdam Copeland(NY連銀)、Darrell Duffie(スタンフォード大)、Yilin Yang(同)。
以下はその要旨。

The Federal Reserve's "balance-sheet normalization," which reduced aggregate reserves between 2017 and September 2019, increased repo rate distortions, the severity of rate spikes, and intraday payment timing stresses, culminating with a significant disruption in Treasury repo markets in mid-September 2019. We show that repo rates rose above efficient-market levels when the total reserve balances held at the Federal Reserve by the largest repo-active bank holding companies declined and that repo rate spikes are strongly associated with delayed intraday payments of reserves to these large bank holding companies. Intraday payment timing stresses are magnified by early-morning settlement of Treasury security issuances. Substantially higher aggregate levels of reserves than existed in the period leading up to September 2019 would likely have eliminated most or all of these payment timing stresses and repo rate spikes.
(拙訳)
2017年から2019年9月に掛けて準備預金の総額を減らしたFRBの「バランスシート正常化」は、レポ金利の歪み、金利のスパイクの深刻さ*1、日中の支払いタイミングの緊張を増し、遂には2019年9月半ばの国債レポ市場での大混乱を招いた。我々は、レポ取引を積極的に行う最大手の銀行持株会社FRBに預け入れていた準備預金の総額が低下した時にレポ金利が効率的市場水準を超えて上昇したこと、および、レポ金利のスパイクがそれら大手銀行持株会社の準備預金の日中の支払いの遅れと強く相関していることを示す。日中の支払いタイミングの緊張は、新発の財務省証券の早朝決済によって高まった。2019年9月に至る期間の準備預金総額の水準が実際よりも顕著に高かったならば、こうした支払いタイミングの緊張とレポ金利のスパイクを概ねないしすべて削減した可能性が高い。

WPの結論部では、今はコロナ禍でFRBが再び潤沢に準備預金を供給しているために問題が緩和されているが、FRBが再びバランスシート正常化に乗り出した時に問題が再発する恐れがある、と警鐘を鳴らし、幾つかの政策提言を行っている。

*1:cf. ここで引用したWilliamsonのグラフ。