人工知能導入の最適速度に危害に関する学習はどのように影響するか?

というNBER論文が上がっているungated(SSRN)版)。原題は「How Learning About Harms Impacts the Optimal Rate of Artificial Intelligence Adoption」で、著者はJoshua S. Gans(トロント大)。
以下はその要旨。

This paper examines recent proposals and research suggesting that AI adoption should be delayed until its potential harms are properly understood. It is shown that conclusions regarding the social optimality of delayed AI adoption are sensitive to assumptions regarding the process by which regulators learn about the salience of particular harms. When such learning is by doing -- based on the real-world adoption of AI -- this generally favours acceleration of AI adoption to surface and react to potential harms more quickly. This case is strengthened when AI adoption is potentially reversible. The paper examines how different conclusions regarding the optimality of accelerated or delayed AI adoption influence and are influenced by other policies that may moderate AI harm.
(拙訳)
本稿は、AIの導入はその潜在的な危害の可能性が正しく理解されるまで遅らせるべき、と推奨する最近の提案や研究を調べた。AI導入を遅らせることが社会的に最適である、ということについての結論は、特定の危害の顕著性を規制当局者が学習する過程についての仮定に敏感であることが示される。そうした学習が実践的な学習――AIの実世界での導入に基づくもの――である場合には、AI導入の加速を前面に押し出し、潜在的な危害により素早く対応することが一般的に選好される。AI導入を元に戻せる場合は、この論拠は強化される。本稿は、AI導入の加速もしくは遅延の最適性に関する相異なる結論が、AIの危害を緩和する可能性がある他の政策にどのように影響し、また影響されるかを調べた。

人工知能の規制 - himaginary’s diaryで紹介した論文でもAI導入の社会的最適化を扱っていたが、同論文は導入のスピードについては明示的に扱っていなかった、とGansは指摘している。その論文、および転換的技術の規制 - himaginary’s diaryで紹介した論文では、Gansが「実験室における学習(lab learning)」と呼ぶ外生的な学習を前提とした点で今回の論文と異なる、とGansは言う。
Lab learningならぬLearning is by doingを通じて規制当局者が学習するならばAI導入の加速が推奨される、というのは面白い結論だが、前々回エントリで触れた「英国郵便局冤罪事件」について指摘されるように規制当局者が問題を素早く把握し対処することを怠った場合や、12/13エントリで触れたジェイムズ・P・ホーガンの「未来の二つの顔」のように危害が突然大規模に発生し、元に戻せると思っていたら戻せない事態になった場合を考えると、そのやり方はいざという場合のコストが大きすぎるような気もする。