転換的技術の規制

というNBER論文をアセモグルらが上げているungated版)。原題は「Regulating Transformative Technologies」で、著者はDaron Acemoglu(MIT)、Todd Lensman(同)。
以下はその結論部の前半*1

Advances in generative AI technologies, such as GPT-4 and other large language models, have both raised hopes of more rapid growth thanks to the rollout of these technologies and concerns about misuses and unforeseen negative consequences from their new capabilities. Despite a multifaceted public discussion about their regulation, there are currently no economic models of the regulation of transformative technologies. This paper has taken a first step in building such a model to provide insights for this debate.
We consider the adoption decision of a new, transformative technology that can increase productivity growth across all sectors of the economy but also raises risks of misuse, which we model as the stochastic arrival of a “disaster”. If a disaster occurs, some of the sectors that started using the new technology may be unable to switch back to the old, safe technology and generate social damages. We assume that the likelihood of a disaster is unknown and society gradually learns about whether such a disaster will occur. We show that adoption should be slow and follow a convex path, initially growing slowly before accelerating later. This slow adoption is motivated by social learning about the likelihood of a disaster—as the posterior probability of a disaster declines over time, adoption increases. Most surprisingly, a faster growth rate of the new technology should lead to slower adoption. This is because of a precautionary channel: Despite the fact that the planner is risk neutral, irreversible damages imply that it is optimal to wait and learn about the likelihood of a disaster. These irreversible damages are greater when the new technology has a higher growth rate, strengthening the precautionary motive. Finally, if private firms internalize only part of the social damages from transformative technologies, equilibrium adoption tends to be too fast and necessitates regulatory policies, some of which we characterized.
(拙訳)
GPT-4などの大規模言語モデルのような生成AI技術の進歩は、そうした技術が広く行き渡ったことで成長率が上昇するという期待を高めたと同時に、誤用およびその新たな能力がもたらす予見できない負の影響に対する懸念も高めた。その規制に関して多面的な公けの議論がなされているにもかかわらず、転換的な技術の規制についての経済モデルは現時点で存在しない。本稿はその議論に洞察を提供するため、そうしたモデルを構築する第一歩を踏み出したものである。
我々は、経済のすべての部門で生産性の成長を高めることができる半面、誤用のリスクも高める新たな転換的技術を導入する決定について検討した。誤用は「惨事」の確率的な発生としてモデル化した。惨事が生じると、新技術を使い始めていた部門の中には、古い安全な技術に切り戻すことができずに社会的損害をもたらすものも出てくるだろう。惨事の発生確率は分かっておらず、社会はそうした惨事が起きるものかどうかを段階的に学習すると我々は仮定した。導入は遅々としたものとなり、凸経路を辿ることを我々は示す。即ち、当初の伸びは低いが後で加速する。この導入の遅さは、惨事発生確率の社会的学習に動機付けられている――惨事の事後確率が時間と共に低下するにつれ、導入は増加する。最も驚くべきは、新技術の伸び率が高いと導入が遅くなるということである。これは、用心という経路による。即ち、計画担当者がリスク中立的であるにもかかわらず、損害が回復できないことは、惨事発生確率を学習するまで待つことが最適となることを含意する。そうした回復できない損害は新技術の伸び率が高いと大きくなり、用心という動機付けを強化する。また、転換的技術のもたらす社会的損害を民間企業が部分的にしか内部化しないのであれば、均衡における導入は急速過ぎるようになり、規制政策が必要となる。そうしたものの幾つかを我々は特徴付ける。

結論部の後半では、今後の研究課題として以下の4点を挙げている。

  • 論文では、自然なベンチマークとして、および、解析可能性のため、社会が惨事の発生確率を学習する速度は、どの部門が当該技術を導入するかには依らない、とした。だが、早期の導入はリスクを増やすかもしれず、学習を促進するかもしれない。また、新技術の「安全利用」について部門特有の学習があるかもしれない。こうしたことを考慮すると、幾つかの部門で早期に導入したり、一部の部門で異なる利用法を試したりする「実験」を行う動機が生じる。そうした実験の分析は今後の研究分野として興味深い。
  • 新AI技術の誤用の多くは、市場構造や、偽情報、差別、プライバシーなどの規制にも左右されるだろう。それらがどのように最適導入や均衡導入に影響するかを追究するのは興味深いだろう。
  • 論文では分析の簡単化のためリスク中立性を仮定したが、ジョーンズ(2023*2)で追究されたように、社会厚生関数におけるリスク回避度は、高成長と惨事発生確率のトレードオフに一次的な影響を及ぼす。新転換的技術の誤用の学習に関しては、今後、それを取り込んだ分析が考えられる。
  • 本論文では、導入の最適経路が数個のパラメータに依存することを示したが、それらのパラメータの値については大きな不確実性がある。生成AIのような新たな転換的技術の導入について実証的な費用便益評価を注意深く行うことは、明らかに実りの大きい研究分野である*3

ちなみにコーエンは、論文では基本的にAIの進歩を鈍化させる論拠となる前提が挙げられているが、加速主義を補強する根拠として以下の3点を挙げている。

  • 技術の早期導入は、特に選択的に行われた場合、学習を促進するだろう。
  • 「それほど整っていない」価値観とそれほどしっかりしていない安全手順を持つ競争相手国の存在*4
  • 中央集権化された規制者が技術のリスクを低めるのではなくむしろ高める可能性。例えばそうした規制者は、監視が難しいオープンソース形態の方向に技術開発を押しやりかねず、しかも非効率的な形でそうしかねない。

コーエンはまた、リスクを所与のものとするのではなく、非集権化システムでのAIによる深刻な社会的損害を内生化することがこうした研究の主目的となるが、この論文ではそれは達成されていないものの、取りあえずその方向の研究は始まった、と評価している。

*1:タイラー・コーエンが指摘するように、要旨はやや分かりにくい。

*2:cf. これ

*3:私見では、コロナ禍対応のワクチンも新たな転換的技術と考えるならば、それについて実証的な費用便益評価を注意深く行うことは、現在のワクチン推進派と反ワクチン派の激しい対立に鑑みて、確かに社会的意義の大きい研究かと思われる(転換的技術と呼べないかもしれないが、その他のコロナ対策についての費用便益評価も同様に意義が大きいと思われる)。その際、ここで指摘したように、前項で言及されたリスク回避度の人による違いが一層重要な意味を持つようになるかと思われる。

*4:これは中国を指していると思われるが、冷戦期にはソ連の存在により、今ならば許されないような事実上の戦時の安全手順で米国の宇宙開発が行われた、というのは良く指摘されるところである。