映画ファンにおなじみの『ターミネーター』といえば、意志を持ったコンピューター、すなわちAIが人類を脅威とみなして絶滅させようとする物語だ。

 

公開された1984年という時代は、前年に初代ファミコンが発売されたばかりという程度の、“コンピューターリテラシー”な社会である。

当然私たちは、遠い未来のSFとしてこの作品を理解し楽しんだ。

 

しかしそれから40年、ChatGPTなどAIの急速な進化でこのような脅威に対する警戒は、もはや空想の物語ではなくなってきている。

実際に大手メディアなどでは、以下のような報道も盛んに行われるようになったほどだ。

 

AIが人類滅亡を招く恐れ 専門家やテック企業トップが警告

英BBC:2023年5月31日

 

AIによる『人類滅亡のリスク』と対策を解説

NHK:2023年6月7日

 

そんなことが盛んに議論される中、私には

“人の意志に反抗したコンピューターが、実際に人の命を奪った”

忘れられない事件がある。

 

1994年4月に名古屋空港で発生した、中華航空140便墜落事故だ。

40代以上の人にはまだまだ記憶に残っている事故かと思うが、少しおさらいしたい。

 

この事故では、名古屋空港に着陸しようとしていたエアバスA300型機のパイロットが操縦を誤ったことにより、滑走路付近に尾翼から墜落して、乗員・乗客264名が死亡している。

 

そしてその事故原因が、驚くべきものだった。

着陸態勢にあった同機の副操縦士が、高度約330mにまで降下したところで誤って、ゴーアラウンド(着陸やり直し)モードを起動してしまったのである。

 

ゴーアラウンドモードが起動されたので、コンピューターは推力・機首を上げ、上昇を開始する。

しかしパイロットたちはそれに気が付かず、強引に機首を押し下げ、着陸を継続しようとした。

すると自動操縦はその指示を打ち消そうと、ますます推力を増して機首を上げようとする。

いわばコンピューターと人間の、“操縦権”の奪い合いだ。

 

その結果、同機の状態はどんどん不安定になっていくのだが、パイロットは何が起きているのか、なぜ正常に着陸できないのか理解できない。

この状況を見かねた機長は副操縦士から操縦を奪うと、管制塔に着陸のやり直しを告げ、直ちに推力を増して機首上げ操作を開始した。

 

しかしそれまで、コンピューターとの綱引きで強引に押さえつけていた操作をいきなり止め、さらに同じ動作をしたらどうなるか。綱引きの片方が、突然手を離した時のようなものではないか。

 

結果、急激に機首がはね上がってしまい、

「機体は数秒でほぼ垂直」

(読売テレビ:1994年に起きた中華航空140便墜落事故 ハイテク機の落とし穴)

になってしまい失速し、そのまま尾翼から墜落したのである。

そして、264名もの尊い人命が一瞬にして失われてしまった。

 

原因そのものは、パイロットの操縦ミス、機種に対する慣熟不足と結論づけられている。

 

しかしその一方で、この事故は、

「コンピューターの意志を、人の意志よりも優先して扱う設計思想によって発生した悲劇」

と言い換えることもできるだろう。

 

そして私達は今まさに、AIの急激な進化の中でこの30年前の事故と、同じような決断を迫られている。

果たして人類は、AIに何を委ねるべきであり、また何を委ねてはならないのだろうか。

 

「常識外れでメチャメチャな作戦」

話は変わるが、日露戦争において陸軍の総参謀長として活躍し、日本を勝利に導いた、児玉源太郎というひとりの軍人がいる。

第二次世界大戦の敗戦によってすっかり日本史から消されてしまったが、戦前は知らない者がいないほど有名だった、近現代を代表する軍人・政治家だ。

 

明治期、ドイツから招聘したいわゆるお雇い外国人のメッケル少佐は日本陸軍の基盤づくりに尽力するが、その彼でさえ、

「コダマがいるので、日露戦争は日本が勝つだろう」

と予言したというエピソードがあるほどに、その才能を高く評価していた男である。

 

しかし日露戦争の最終盤、奉天会戦における児玉の作戦指導は、客観的にみて相当ムチャなものだった。

奉天で待ち構えるロシア軍の勢力は、資料により多少のばらつきはあるものの31万~36万人。

 

対する日本側は24~25万人と、数でも装備でもロシア側に大きく劣る状態だ。

にもかかわらずこの際、児玉は何を思ったか、奉天に立てこもるロシア軍の左右・背後に回り込み、攻囲戦を始めてしまうのである。

 

少し想像すればわかるとおもうが、数にも装備にも劣る軍勢が、圧倒的に優勢な軍勢を取り囲めるはずなど無いだろう。

10対20で戦おうとした時、10人の側が20人を取り囲もうと拡がったところで、個別に1:2で撃破され、敗れるに決まっている。

しかし取り囲まれたロシア軍はなぜか、最終的に奉天から潰走し、撤退してしまうのである。

 

このロシア軍の撤退の理由について様々な説があるが、

「取り囲んでくるなど、自軍よりも遥かに勝る勢力であるに違いない」

と、ロシア軍の総指揮官・クロパトキンが戦況を大きく誤認したことは、間違いないだろう。

いわば、児玉の壮大なハッタリにビビってしまったのである。

 

ではこの、「常識外れでメチャメチャな作戦」の成功は、果たして教訓としても良いのだろうか。

それを考えるにあたって、戦史の名著として知られる『失敗の本質』から、一つの言葉を紹介したい。

 

「戦闘は錯誤の連続であり、より少なく誤りをおかしたほうにより好ましい帰結(アウトカム)をもたらす」

中公文庫:『失敗の本質』より

 

意外に思われるかもしれないが、戦いにおいては「より正しい決断」をしたほうが勝つのではなく、「より間違えなかったほうが勝つ」と言っているのである。

同じように思われるかもしれないが、これは全く違う。

戦闘というものは多くのプレイヤーがお互いの意志をぶつけ競い合う、極めて不確実性の高い環境の下で行われる行為だ。

当然のこと、あらゆる局面で想定通りに物事が進まない。

 

このような環境では、「想定通りに進まない場合、どのようにカバーするか」という決断が重要になる。

つまり、“いま起きている想定外に際し、どう対応するのか”という能力こそが求められるということだ。

そして想定外の事態に際し間違った決断をし続けると、事態はどんどん悪化し、最終的に戦闘に敗れるのである。

 

言い換えれば、戦闘とは相手に錯誤の連続を誘発するような作戦を繰り出し続けることで、良い結果をもたらすといって良いだろう。

孫子の兵法でいうところの、「兵は詭道(騙し合い)なり」である。

 

思えばこれは、ポーカーのようなカードゲーム、ボクシングのような格闘技、さらに言えばビジネスの交渉術など、人生の多くの場面で通用する考え方ではないだろうか。

辛い時ほど効いていないフリをし、怒り狂った時にこそ満面の笑顔を作れる者こそが、本物の強靭なリーダーということだ。

 

「劣勢な側が、優勢な側を取り囲みにかかった」奉天会戦における、児玉源太郎の作戦指導とその成功。

この史実から得られる教訓の一つは、そういったものであるのかもしれない。

 

人とAIはどちらが優れているのか

話は冒頭の、人類とAIの付き合い方についてだ。

果たして人類は、AIに何を委ねるべきであり、また何を委ねてはならないのか。

 

正直この先、未来のことまではとてもわからない。

しかし“2023年に流通している程度のAI”を前提にするのであれば、答えは明らかだ。

「確実性の高い情報の処理など、さっさとAIに任せるべき。不確実性の高い情報の処理は、AIに任せてはならない」

である。

 

今のところ、人類がその影響を恐れるAIは過去、人類が知り得た、あるいは生起させた事象の”知の集合体”でしかない。

「十分な情報」に基づく、確度の高いアウトプットを出す、ただそれだけの存在である。

 

しかし不確実性の高い事象、例えばその象徴である戦場では、不確実性の高い状況をコントロールすることこそが勝利に繋がる。

そしてそこには、戦術や戦闘レベルではともかく、戦略レベルでの十分な情報など存在しない。

そんな不確実な環境下で、トップリーダーがAIのアウトプットなどを信じたら、確実に敗れ去ることになるだろう。

 

そして話は児玉源太郎の、常識外れな戦い方についてだ。

彼は古今東西の兵法や軍の運用など、既知の知見に極めて明るい、聡明な軍人だった。

 

だからこそ、そういった常識から、

“普通ならば選択するであろう、常識的な戦い方”

を理解し、その裏を現実的な方法で崩してくる達人でもあった。

 

繰り返すが、こういった”不確実性を仕掛けてくる人物”への対抗策をAIに求めても、絶対に失敗する。

前例が無いか、情報が極めて少ないのだから当然である。

 

これはビジネスにも通じる話だが、企業や組織のリーダーが、

「常識的な判断ではどうか」

「客観的で定量的な情報はどうなっているのか」

という確度の高い情報を得る手段としてAIを活用しないのは、もはや間違えている。

 

しかしその先の、不確実で流動的な状況にその情報をどのように適用するのか、という戦略は全て、人の意志、さらに言えばリーダーの勇気ある決断で行うべきだ。

 

中華航空140便の墜落事故と、児玉源太郎の作戦指導。

この2つは、時代を超えて今のAI社会にこそ、そのことを証明し教えてくれている。

ぜひ、参考にしてほしいと願っている。

 

余談だが、実は冒頭の中華航空機墜落事故当時、エアバスをはじめとした欧州勢の航空機メーカーは、

「人とコンピューターの意志が矛盾した場合は、コンピューターの判断を優先すべき」

という設計思想で航空機を作っていた。

だからこそ、あのような悲劇が起きてしまったのである。

 

それに対し、米国(ボーイング)は、

「人とコンピューターの意志が矛盾した場合、人の判断を優先すべき」

という設計思想を堅持していた。

そして欧州勢も今は、人の判断を優先する設計思想に倣い、プログラムを組んでいる。

 

そんな歴史がある中で、欧州勢は今、「AIは危険だから排除すべき」という動きが活発に思える。

このような排除を、「いやいやそれ単に、開発に遅れたから言ってるだけの、政治的な思惑だろ…」

と思うのは、私だけだろうか…。

 

 

【お知らせ】
大好評ティネクト主催ウェビナー5月実施のご案内です。


良いアイデアはあるけれど、実行に移せない…
このような課題をお持ちの企業の経営者様、事業責任者様へ向けたセミナーを開催します。

<2024年5月13日実施予定 ティネクト90分ウェビナー>

マーケティングの人手不足は「生成AI」を活用した仕組みづくりから

-生成AIで人手不足を解消しようセミナー


<セミナー内容>
1.あらゆる業界で起こっている人手不足
2.「動ける人材がいない状態」から脱却しつつある事例紹介
3.マーケティングの省力化事例
4.生成AI用いた業務省力化、その他の取り組み

【講師紹介】
倉増京平(ティネクト取締役)
楢原一雅(同取締役
安達裕哉(同代表取締役)


日時:
2024年5月13日 (月曜日)⋅18:00~19:30
参加費:無料  
Zoomビデオ会議(ログイン不要)を介してストリーミング配信となります。


お申込み・詳細 こちらティネクウェビナーお申込みページをご覧ください

(2024/4/21更新)

 

 

 

【プロフィール】

桃野泰徳

大学卒業後、大和證券に勤務。
中堅メーカーなどでCFOを歴任し独立。

ウサギって臆病でなかなか懐かないと聞きますが、ウチのウサギは私に猛ダッシュでナデナデ抱っこを要求してきます。
人が変人だと、ウサギも変兎になってしまうようです…。

twitter@momono_tinect

fecebook桃野泰徳

Photo by:Steve Johnson