というNBER論文が上がっている(ungated版へのリンクがある著者の一人のページ)。原題は「AI and Task Efficiency」で、著者はBoyan Jovanovic(NYU)、Peter L. Rousseau(ヴァンダービルト大)。
以下はその結論部。
As AI gets more powerful, humans will still retain two important functions when interacting with it. The first lies in interpreting the output of AI. Given a problem, the solution that AI provides may be incomplete or imprecise, and humans may need to adjust it or modify the problem itself. Humans will do so in light of their prior experiences and other information that was not programmed into the formal problem AI was asked to solve. Experience is typically associated with decision makers’ prior beliefs, which they will use when solving problems such as (17) or (6).
We have modeled several settings in which AI can raise task efficiency, and each assumes that AI works by raising the precision of signals for individual decision makers or groups. The first model involved an individual decision maker and how AI can sharpen signals about potential projects to be undertaken. Another focused on how AI can sharpen signals about the relative difficulty of tasks, thus improving the sequencing with which they are performed. We ended with a discussion of how AI can promote the growth of human capital, particularly through the process of learning by doing. This is particularly salient when an agent works with a sequence of related problems.
The general conclusion is that one can find channels through which abler agents can have a higher growth-rate benefit from AI, as well as channels through which less able agents receive a higher growth-rate benefit. Our paper models some of these channels.
We have not modeled the role of AI in enhancing creativity — developing new models, new arguments, and so on. The second function for humans will be in modifying the problems AI is asked to solve and coming up with new problems. For example, what if the problems posed in Eqs. (17) or (6) are found to be inappropriate? To come up with better solutions, creativity is needed, and creativity is not yet in AI’s domain — AI does only those things it was programmed to do, at least at present. But when AI assists in idea generation, the problems themselves are still generated by the researcher, at least in part. Thus, for now at least, we humans can still contribute to the progress of science. A heartwarming thought.
(拙訳)
AIがより強力になる中で、人間はAIとの相互作用において2つの重要な機能を依然として維持している。一つ目はAIの出力の解釈にある。問題が与えられた場合、AIが提供する解は不完全もしくは不正確かもしれず、人間はそれを調整するか、もしくは問題自体を修正する必要が出てくるだろう。人間はそのことを過去の経験や、AIが解くことを求められた正式な問題には織り込まれていなかった他の情報に基づいて行う。経験は通常、意思決定者の事前の考えと結び付いており、それが(17)や(6)のような問題を解く時に使われる。
我々は、AIが業務の効率性を引き上げられるような幾つかの状況をモデル化した。それぞれ、AIが個々の意思決定者もしくは集団にとってのシグナルの正確性を高める働きをすると仮定している。最初のモデルは個々の意思決定者に関するもので、遂行すべきプロジェクト候補についてのシグナルをAIがどのように明確化できるかを扱っている。もう一つのモデルは、タスクの相対的な困難さについてのシグナルをAIがどのように明確化できるかに焦点を当てており、それによって遂行する順番を改善できる。最後に我々は、特に行動学習の過程を通じてAIが如何に人的資本の成長を促進できるかを論じた。このことは、主体が一連の関連する問題に対処する際に特に顕著になる。
全般的な結論は、能力が高い主体が成長率を高める便益をAIから得ることができる経路を発見できると同時に、能力がそれほど高くない主体が成長率上昇の便益を受け取ることができる経路も発見できる、というものである。本稿はそうした経路の幾つかをモデル化した。
我々は、創造性を高めること――新たなモデルの開発や新たな主張の展開など――にAIが果たす役割をモデル化していない。人間にとっての二つ目の機能は、AIが解くことを求められた問題を修正し、新たな問題を設定することにある。例えば、式(17)や(6)で提示された問題が不適切であることが判明した場合はどうだろう? より良い解を求めるためには創造性が必要で、創造性は未だAIの領域には無い――少なくとも現時点では、AIはプログラムされたことだけを実行する。AIがアイディアの生成を支援する際にも、問題自体は少なくとも部分的には依然として研究者が生成しているのである。従って、少なくとも現在は、我々人間は依然として科学の進歩に貢献できる。ホッとする話である。