ジャック・バウアーとペトレイアスの違い

一昨日のエントリの最後に

スティーブ・ワルドマンのエントリの)コメント欄では、“評価の難しい産業では、最善を尽くして手に入れた情報だから価値がある、と内部者が思い込んでしまう傾向があるが、実際にはそうした情報のほとんどは、それに基づいて行動を起こすだけの価値が無い”という趣旨の長文のコメントが投稿され、ワルドマンは「excellent comment」と激賞している。そのコメンターは、自らの従軍経験からそうした考察を導き出したとの由。

と書いたが、今日はそのコメントの該当部分を引用してみる(ちなみに昨日のエントリではそのコメントから軍における開発プロジェクトについて触れた部分を紹介したが、それは全体の論旨から言うとどちらかと言えば余談に属する話で、それに続けて書かれた以下の引用部分がむしろ本論ということになる)。

But now let me get back to that concept of “actionable intelligence” because it’s just so fundamental to this discussion. Commanders have a certain freedom of maneuver and various possible courses of actions from which they must choose. The Intelligence collectors and analysts often have insanely gigantic amounts of the wrong information and never quite enough of the right information – the kind that makes it clear what to do right now. Think “Federal Reserve”.

All modern knowledge-research-analysis fields (of which Military Intelligence is one), have to come to terms with their peculiar limits of knowledge-acquisition. If you cannot test reality through market success, controlled experiments, or randomized clinical trials or other “gold-standard” investigations (for whatever reason; ethics, money, feasibility, etc…), then the pressure is to settle for silver and bronze and lesser-standard work that you *can* do. In Intelligence (and to a certain extent, in finance), it’s even worse, because you have a smart enemy, motivated because his very life is at stake in his efforts to try and conceal this information and even completely mislead you in a false direction.

The corrupting psychological temptation, however, is the tendency of researchers to unconsciously upgrade the value of the information they can produce because “it’s the best we can do” and it also reflects on the status and influence and reputation of your chosen field. Much “causal density” Social Science operates under these unjustified knowledge-acquisition-standard upgrade assumptions.

What you end up with are very weak relationships and correlations that only very slightly narrow down the enormous range of possibilities from which to choose. Knowing that your target lived in the Western half of a city of 400,000 last month is hardly better than knowing nothing at all if the only information that can be useful to you in terms of moving assets is knowing which block he’s in right now. The Intelligence Officer is often able to hand the Commander as much of this low-value information as he can possible stand, but even in sum it’s very rarely “actionable”.

But Commanders *want* to decide and act, an impulse and will to power instead of passive helplessness. It’s in their nature. And the urge is that “We can only make best decision we can with the information we have, and the information we have may be junk, but it’s the best we can do, so let’s use it.” The problem with this type of thinking, which seems reasonable on its surface, is that it creates a pretense of knowledge – a sense that one’s decision is justified when, in fact, it is not – and the pretense of knowledge leads to worse decisions than the admission and acceptance of one’s own ignorance, or even the pretense of ignorance.

It is now well known that Commanders will make better decisions not by desperate attempts to use the limited low-value knowledge they have, but by filtering and even disregarding all low-value knowledge as being essentially worthless and assuming instead that they have none. When you assume and accept your own ignorance in a scenario of great uncertainty, you shift your focus from forward movement to security – from concentrating on engaging in future risks, to concentrating on discovering and shoring up the vulnerabilities in one’s defenses against an unknown surprise attack. You seek to make your systems less brittle and more robust, while at the same time you reallocate your resources from trigger-pulling to information-collecting so that you can acquire the real, useful, high-value information “actionable intelligence” that you really need to make progress.


(拙訳)
「それに基づいて行動を起こすだけの価値のある情報(actionable intelligence)」の概念に話を戻そう――これは今回の議論にとって基本となる話なので。司令官たちは作戦行動において一定の裁量を与えられており、様々な行動の選択肢が与えられている。情報収集者や分析者の手元には、極めて膨大な誤った情報と、決して十分な量に達することの無い正しい情報――今何をすべきか明らかにしてくれるような情報――とがある。FRBを思い浮かべて欲しい。


現代社会の知識=調査=分析に関わるあらゆる分野(軍の情報機関もそれに属する)においては、知識の獲得に際しての特有の限界と折り合いをつけていかなくてはならない。市場での成功やコントロールされた実験や無作為抽出の臨床実験といった「黄金レベル」の調査を通じて現実を検証することができないのであれば(その理由は倫理、資金、実行可能性など様々であろうが)、達成可能な銀もしくは銅もしくはそれ以下のレベルの仕事に甘んじなければならない、というプレッシャーが存在することになる。情報活動では(そして多少なりとも金融においても)、状況はさらに悪い。というのは、自分の生命を掛けて情報を隠蔽し、あまつさえ完全にあなたを誤った方向に誘導しようとする賢い敵が存在するからだ。


さらに研究者には、自分の生み出す情報の価値を無意識のうちに高めようとする悪しき心理的誘惑が存在する。それは、その情報が「我々に可能な最善の結果」であると同時に、その価値が自分の職の地位や影響力や評判に反映するからである。「因果関係の錯綜した(causal density)」事象を対象とする社会科学の多くでは、獲得した知識の水準に関して、そうした根拠の無い水増しが行われている。


その結果得られるのは、莫大な選択肢の幅をほんの僅か狭めてくれるに過ぎない微弱な連関性や相関性である。目標とする敵が先月40万都市の西半分の地区に居住していたという知識を得ても、自分が作戦行動を起こす上では現時点で彼がどの区画にいるのかという情報しか役立たないのであれば、何も知らないのとそれほど変わりは無い。情報将校は司令官にこうした価値の低い情報を彼の忍耐の範囲内で渡すことができようが、それらをすべて総合しても、「行動を起こすに足る(actionable)」ようになることは滅多に無い。


しかし司令官は決断を下して行動を起こしたがるものであり、消極的な無力感よりは、力への衝動と意志を好む。それが彼らの習性なのだ。「我々は手持ちの情報を基にして初めて最善の決定ができるのであり、手持ちの情報がくずだとしても、それが我々にできる最善のことなのだから、その情報を利用しよう」という衝動が働くわけだ。そうした思考法は、表面上は合理的に見えるが、知識があるという偽装的な感覚――実際には違うにも関わらず、自分の決断には根拠があるという感覚――を生み出してしまう、という問題がある。知識があるという偽装的な感覚は、自分の無知を認めて受け入れた場合、もしくは知識が偽装であることを自覚して受け入れた場合に比べてさえ、より悪い決断をもたらしてしまう。


限られた手持ちの低価値の知識をとにかく役立てようと試みずに、すべての低価値の情報を基本的に無価値のものとしてフィリタリングし、あまつさえ無視して、何も情報を持っていないという前提に立つことが、司令官たちにより良い決断をもたらす、ということは今や周知の事実である。不確実性の高いシナリオにおいて自らの無知を前提として受け入れた場合、前進行動よりは安全確保に重心を移すだろう。将来のリスクに取り組むことに傾注するのではなく、未知の奇襲攻撃に対する防備の欠点を発見し補強することに傾注するようになるだろう。自分のシステムの脆弱性を解消し頑健性を増強することに努めると同時に、投入資源を攻撃面から情報収集面にシフトさせ、本物の役に立つ高価値の情報、事態を進展させるのに是非とも必要な「それに基づいて行動を起こすだけの価値のある情報(actionable intelligence)」を獲得できるように努めるだろう。


限られた手持ちのあやふやな情報を直感で正しいと信じ込み、それを元に行動して見事成功する、というのは「24」を初めとするアクション映画やドラマの定番だが、当然の如く現実はそういうわけには行かない、とのことである。
上述の現実的な戦略に基づく成功例としては、ペトレイアス将軍によるイラク戦争の立て直しが、上記の引用部分のすぐ後に挙げられている。

It’s no wonder then that when the feedback-loop between operations and intelligence was broken in the months after the initial invasion (again, because we were lulled into complacency), we floundered in Iraq, and when General Petraeus painstakingly reestablished it (at high cost), the situation improved quickly and dramatically. As usual, in practically all the media stories, there was almost no account of the status of this critical element, and hence no accurate narrative of the reasons behind what was really going on. Neither the war’s boosters nor its detractors had any idea why things were progressing the way they were, and this is most evident in that both the initial failure and later success were almost complete surprises to everybody except the Soldiers actually losing, but then winning, the war. Soldiers don’t get much press though.
(拙訳)
そう考えてみると、最初の侵攻から数ヶ月以内で作戦行動と情報収集活動のフィードバック・ループが壊れた時に(その原因はまたしても自己満足に陥ったためだったのだが)我々がイラクで泥沼にはまったこと、および、ペトレイアス将軍が苦労してそれを(高いコストを払って)再建した後に状況が急速かつ劇的に改善したことには、何の不思議も存在しない。例によって、ほとんどすべてのメディアの報道においては、そうした重要な要因に関する状況説明は無いに等しかった。従って、実際に起きていることの背後にある原因が正確に伝えられることも無かった。戦争の支持者も反対者も、なぜ事態がそのように推移しているのかまるで分からなかった。そのことは、最初の失敗とその後の成功が、実際に戦争で敗北を喫した後に勝利を収めた兵隊たちを除くほとんどすべての人にとって、ほぼ完全な驚きだったことに最もよく表れている。だが、兵隊たちがメディアに登場することはあまり無かった。


なお、このコメントの冒頭では、戦略レベルでの不確実性とは対照的に、戦術レベルでは直ちに結果が出る(=軍事行動を実施した場合、その失敗した点と成功した点は直ちに素人の目にも明らかになる)ことを指摘し、そうした二極性が存在するのが軍隊という産業である、と述べている。
その伝で行けば、先述のアクション映画やドラマでは、戦術レベルでの因果関係の明確性(現場で銃撃戦を行えば何らかの形で決着が付く)を一つの娯楽要素にしているわけだが、さらにその明確性をそのまま索敵行動などの戦略部分にまで(現実に反して)敷衍することにより、娯楽性を一層高めている、と言えるだろう。


このように、分析者による自らの情報の過大評価と、それに基づく行動の危うさ、という点を鋭く抉ったことがこのコメントの考察を興味深いものにしている。その点では、経済学と経済政策の関係にも大いに示唆を与えるもの、と言えるだろう*1
ただその一方で、そうした不確実性を前提とするならば亀が甲羅に引っ込むような戦略が最適、と言わんばかりの後半部分の主張はやや一般性に欠けるように思われる。確かに戦争や軍事作戦のような多くの人命が掛かった局面ではそうかもしれないし、あるいは、例えば金融システムの安定性の維持といった政策でも、失敗した時のコストの大きさ(=金融恐慌の到来)を考えれば、そうした方向性を参考にすべきかもしれない。しかし、一般の経済政策や社会政策、およびに企業の経営戦略では、行動しないことのリスクの方が、曖昧な情報に基づいてでも行動するリスクを上回る局面も多々あるのではないだろうか(例:今次の大不況における景気対策)。実際、この同じコメントの昨日紹介した部分では、無駄を承知でいろいろ試すしか技術進歩は望めない、ということが述べられており、その意味で自ら反例を示す形になっているように思われる。

*1:元のワルドマンの考察と併せ、タレブの考察をより深めたもの、という気がする。