海上自衛隊幹部学校

交通案内 | リンク | サイトマップ |  English

HOME / 戦略研究会 / コラム / コラム132

 戦略研究会

 無人兵器システムにおける自律性(Autonomy)の利点と欠点

(コラム132 2019/03/05)

*******

はじめに
   科学技術の著しい発展は、当然軍事技術にも及び、近年の兵器開発に劇的な変化をもたらしている。特に無人航空機(Unmanned Aerial Vehicles: UAV)の分野では、1991年の湾岸戦争、1994年のボスニア紛争及び1999年のコソボ紛争で、偵察目的のUAVが重要な兵器体系の一部として組み込まれた1。また、2001年の対テロ・アフガニスタン紛争以降では、無人戦闘航空機(Unmanned Combat Aerial Vehicle: UCAV)も登場してきた2。特に米国では、1990年代のUAVに対する支出が年間3億ドル程度であったが、2001年9月11日のテロを境にその支出が急上昇し、2005年には6倍の20億ドルにまで増加した3。その後UAVの需要は更に増し、2011年には1990年代のUAVの支出と比べ、20倍の60億ドルを超えたとされる4。この兵器の無人化の流れは、米国をはじめとする主権国家だけに限られた話ではない。特に無人偵察機はハマス、ヒスボラ、ISIS、さらにイエメン反政府組織フーシー派などの反国家組織にまで広がっていることが指摘されている5。また、これらの無人兵器は、火薬、核弾頭に次ぐ軍事革命(第三の革命)となってきているとも指摘され6、軍事作戦に多大な影響を及ぼしつつある。
   本コラムでは、まず、なぜ戦場で無人兵器システムが使用されるのか、その特徴を挙げる。次に無人兵器システムに対する人間の関与という観点から、無人兵器システムの自律性を分類し、次に、無人兵器システムの自律性が問題となった事故事例等から、あるべき人間と機械の連携(human-machine teaming)について述べたい。

(1)無人兵器システムの特徴
ア 利点
   なぜ無人兵器が戦場で使用されるのか、その軍事的利点は、単に省人化・省力化するだけではなく、生身の兵士に代わり、Dull(退屈)、Dirty(汚い)、Dangerous(危険)、Deep(深い)の4つの「D任務」を遂行することが指摘されている7(表1参照)。

無人兵器の利点

   この他にも無人兵器は、自己保存の意欲がない分、人間より慎重に致死性武力(lethal force)の行使が可能であり、恐怖、疲労、復讐心といった人間の感情や体調から生じる判断ミスを回避できるという指摘がある8。また多くの戦争犯罪は、仲間の死に対して復讐を求める戦闘員によって行われるので、無人兵器に感情がないことや、仲間に対して愛着を覚えないことは、無人兵器を使用することが、民間人の危険を軽減する一つの方法であることも指摘されている 9

イ 欠点
   ただし、従来の遠隔操縦型UAVには以下の欠点も指摘されている。何千ものUAVを遠隔操縦する場合、それらを制御するためには、UAVの数と同様に何千人ものオペレーターを必要とする。プレデター(Predator)やリーパー(Reaper)のような遠隔操縦型のUAVを24時間365日運用した場合、1機の無人機に一軌道(orbit)あたり、7から10人のパイロットを必要とし、UAVのセンサーを操作する必要がある場合、さらに20人が必要である。加えてセンサーデータを確認するには、多数の情報処理員(intelligence analysts)が必要となる10。 実際、UAVの運用には相当な人員が関与しなければならないため、米空軍はこれらの航空機を「無人(unmanned)」と呼ぶことに対して強い抵抗があり、あえて「遠隔操縦型航空機(remotely piloted aircraft)」と呼称している11
   このように、遠隔操縦型のUAVには実際には多数の人員が関与しなければならず遠隔操縦型UAVを使用した作戦は、費用対効果が高い戦術とは言えないことが指摘されている12。さらにジャミングや通信が途絶された環境では無人兵器は無力化してしまうため、このような環境でも無人兵器が人間の制御から独立して効果的に活動できるように、現在の無人兵器には自律性(autonomy)が求められてきている13

(2)無人兵器システムの自律性と区分基準
   米国防総省では、無人兵器システムの自律性を「システム(entity)が、世界、システム自身の知識や理解及び状況に基づいて、目標を達成するために異なる行動方針の中から独自に展開し選択するシステムの能力」と定義している14。そしてこの能力を有する自律システム(autonomous system)は、システムが参照用データ(baseline)から逸脱することを可能にする広範な規則によって管理されており、偏差のない規範的な規則によって管理される自動システム(automated system)と区別されると認識している15。また、このシステムの自律を可能にする技術として、米国防総省は人工知能(artificial Intelligence: AI)や機械学習(machine learning: ML)を挙げている16
   また、ある程度自律性を有する無人兵器システムは人間の介在の程度によって①半自律兵器システム、②人間監視兵器システム、③完全自律兵器システムの3つに区分される17(表2参照)。

人間の介在の程度による無人兵器システムの分類

(3)無人兵器システムの自律性の特徴
ア 利点
   この自律性を有する無人兵器システムの利点は、システムの運用に必要な人的作業負荷を削減することは元より18、最も重要な利点はである。自律性は、武器システムが、人間が今まで以上に速く、観察(Observe:目標捜索)、情勢への適応(Orient:目標探知)、意思決定(Decide:探知目標への対応決定)、行動(Act:探知目標への攻撃)、いわゆるOODAループ19を敵側より早く実行できる。また、この自律性は、人間が操作することができない方法(複雑さ、量またはスピードの点で)でシステムがデータを収集、照合、分析できるようになるため、より高度なコマンド及び制御レベルでの機会を提供する。これにより、意思決定サイクルの質とスピードが大幅に向上することが指摘されている20(図1参照)。戦場での勝利は、このOODAループのサイクルを相手より早く完了させることにかかっているとされる21

OODAループ概念図

イ 欠点
   この無人兵器システムの自律化に対しては、「人間と機械の連携 (human-machine teaming)」という観点から、次のような問題点と事故事例が挙げられている22
   なお、human out of the loopに区分される完全自律兵器システムの問題点については、human in the loopやhuman on the loopとは次元をやや異にするため、拙稿「完全自律兵器システムの自律とは-ターミネーターは誕生するのか-」 23を参照されたい。

(ア)human in the loopの欠点
   まず人間がシステムに対して、意思決定の輪の中にいた状況(human in the loop)で生起したものとして、1988年7月3日に米海軍ミサイル巡洋艦ヴィンセンスがホルムズ海峡でイラン航空655便に対して誤射したために乗員乗客290名が犠牲になった事案が挙げられる(以下、ヴィンセンス事案24)。本事案を語る前に参考知識として、ヴィンセンスに搭載されているイージスシステムについて概説する。イージスステムには、「manual」(手動)、 「Semi-Auto」(半自動)、「Auto SM」(自動)、「Auto-Special」(特別自動)の4つのモードがあり、「Auto-Special」モード以外は、ミサイルを発射させる前に何らかの人間の介在(承認)が必要なため、human in the loopと評価され、一方、「Auto-Special」は射撃中でも人間によってシステムを停止することはできるが、システムのパラメーターを満たす脅威に対して、人間の承認なく自動的に攻撃するためhuman on the loopと評価されている25
   ヴィンセンス事案が生起した背景として、1980年代に生起したイラン・イラク戦争で1987年にはイラン側がホルムズ海峡を通行するタンカーも攻撃対象としたため、米海軍は星条旗を掲げたタンカーを護衛する任務に従事していた。当時ホルムズ海峡ではこのヴィンセンス事案に先立ち、1987年5月に米海軍ミサイルフリゲート艦スターク(Stark)がイラク空軍機から攻撃され37人の乗員が犠牲になったことから緊張が高かったとされる。7月3日当日、ヴィンセンスは同じく米海軍ミサイルフリゲート艦モンゴメリー(Montgomery)とホルムズ海峡を通行するタンカーを護衛していた。しかし、イラン軍の高速艇に付きまとわれ、銃撃戦を演じていた。その際中にイラン近郊の軍民共用のバンダレ アッバス(Bandar Abbas)空港からイラン航空655便とイランのF-14戦闘機が離陸した。ヴィンセンスの戦闘情報センター(combat information center: CIC)では敵味方識別装置(identification friend or foe: IFF)から、民間航空機と戦闘機の航跡を画面に捉えていたが、ヴィンセンスに対して近づく航空機に対し、無線で呼びかけるも応答がないため、オペレーターは混乱してしまい、明らかに民間航空路を上昇しているイラン航空655便を、降下して攻撃してくるF-14戦闘機と誤認して、撃墜してしまった。この事案からは、結局のところ民間人や民用物と戦闘員や軍事目標を区別することが難しい状況(緊迫した状況)では、意思決定に際し、ループ内の人間(human in the loop)が万能薬ではないことが指摘されている26

(イ)human in the loopの利点
   これに対し、人間がシステムに対して、意思決定の輪にいた(human in the loopであった)からこそ防げた事案として次のようなものがある。
   1983年9月26日、オコ(Oko)といわれるソビエト早期警戒衛星は、米国から計5発の弾道ミサイルがソビエト連邦に向けて発射されたという信号を探知した。この信号は、モスクワ郊外にあるセルプホフ15の掩蔽壕にある早期警戒システム画面で確認された(以下、ソビエト核誤報事案27)。この事案が生起するわずか3週間前の9月1日、ソビエト軍はアラスカからソウルに飛行していた大韓航空機を撃墜し、米国の国会議員を含む269人が死亡したため、ソビエトは米国からの報復を恐れて警戒態勢にあったとされる。
   26日夜、スタニスラフ・ペトロフ(Stanislav Petrov)中佐はセルプホフ15で立直中であったが、早期警戒システム画面に5つのミサイルの航跡を確認した。しかし、ペトロフ中佐は、なぜ米国がモスクワを攻撃するのに5発しかミサイルを撃たないのか疑問に思った。もし、米国が本当に先制(報復)攻撃をするのなら、ソビエトにある地上ミサイルを一掃するため圧倒的な大規模なものであるはずだと。そこでペトロフ中佐は、本当に弾道ミサイルであればモスクワが火の海になることも考慮しつつ、残された時間で陸上レーダー班と確認をとり、さらに静止衛星等で整合することで、システム画面に示されている5つのミサイルが誤作動であると判断した(後に雲頂から反射する日光によりOkoが誤作動したと判明)。この事案では、もしシステムが人間の介在よりも早く反応する状態(human on the loop)であれば、ソビエトの核ミサイルが自動的にワシントンに飛んでいき、ハルマゲドン(最終戦争)が生起していたとして挙げられる事案である。

(ウ)human on the loopの利点及び欠点
   これに対し、2003年に生起したイラク戦争では、ぺトリオット(Patriot)の使用に対して、人間がシステムに攻撃の判断を委ねた(human on the loopであった)ために生起した誤射もある。ペトリオットシステムには「manual」(手動)と「auto-fire」(自動発射)の2つのモードがあり、「manual」モードでは、システムがミサイルを発射する前に人間による承認が必要なため、human in the loopと評価される。一方、「auto-fire」モードでは、システムのパラメーターを満たす脅威に対して、人間の承認なく自動的に攻撃するためhuman on the loopと評価されている28
   イラク戦争当初、40か国からなる4つの有志連合(coalition)の内、米国を含む23か国が、60以上のペトリオット部隊をイラクの弾道ミサイル(Iraqi ballistic missiles)から地上部隊を守るために展開させた。このペトリオットの展開については、イラクから有志連合に対し9発の弾道ミサイルが発射されたが、有志連合に被害がなかったため、米国防科学委員会(Defense Science Board: DSB)はペトリオットのミサイル防衛に関して、「実質的な成功(substantial success)」と結論付けている29。しかしながら、イラク戦争期間中、ペトリオットは少なくとも2回の友軍誤射をおこなっている。1回目は2003年3月23日にイラクでの任務を終え、クウェートにあるアリ アル サレム(Ali Al Salem)空軍基地に着陸するために降下し始めた英空軍機トルネード(Tornado)GR4戦闘機を、ペトリオットのオペレーターが、対レーダーミサイル(anti-radiation missile: ARM)と誤認してトルネードを撃墜し、2人のパイロットを殺害した(以下、トルネード撃墜事案30)。本事案ではトルネードのIFFが故障若しくはOFFになっていたことも原因とされており、ペトリオットのモードは明らかになっていない。この友軍誤射を受け、米陸軍では弾道ミサイルに対しては、探知から衝突までの反応時間が非常に短いことから「auto-fire」モード(human on the loop)で運用し、ARMに対しては、ペトリオットが友軍航空機をARMと誤認する可能性に鑑み「manual」モード(human in the loop)で運用することを命じた。更に、友軍誤射を回避するため、通常は発射装置自体を「standby」モードにし、ARMを迎撃するときに「operate」モードにするという二重の安全対策を施していた。
   2003年4月2日、クウェート北部に展開していたペトリオット部隊は、バクダットから飛翔してくる弾道ミサイルの航跡を探知した。この探知情報は、後に「ゴーストトラック(ghost track)」といわれる電磁干渉であることが判明したが、当時オペレ―ターも射撃指揮官もこのことには気づかず、指揮官はこの航跡を弾道ミサイルと判断し、発射装置を「standby」モードから「operate」モードに切り替えるようオペレーターに命じた。弾道ミサイルの場合、「auto-fire」モードで作動するように設定していたため、令なく2機の地対空ミサイル(PAC-3)が発射された。発射されたミサイルは、存在しない目標(ゴーストトラック)に打ち上げられたが、ミサイルは、たまたま近くを飛行していた米海軍F/A-18Cホーネット(Hornet)を探知してしまい、ホーネットはこれに気づき回避行動をとったが、数秒後に両ミサイルがホーネットを撃墜してしまった(以下、ホーネット撃墜事案31)。総計すると、イラク戦争時ペトリオットが関与した12件の事案の内、25%が友軍誤射であったことが指摘されている32。このようにイラク戦争時、ペトリオットのミサイル防衛自体はDSBが評価するように実質的な成功だったかもしれないが、その裏には25%もの友軍誤射があったことは見逃せないポイントである。米陸軍捜査官(Army investigator)はペトリオットの誤射率の高さに「容認できない(unacceptable)」と評価している33。このペトリオット友軍誤射事案に対してはヒューマンエラー、不適切な運用テスト(improper testing)、不適切な訓練、そして戦場での予期しない複雑な相互作用が挙げられている34。また、米陸軍捜査官からは、ペトリオットの高射部隊では、「疑いなくシステムを信頼する」という文化を持っていると指摘している35。この指摘は1983年ソビエト核誤報事案で、ペトロフ中佐がシステムを疑ったためにハルマゲドンを回避したことと、対比できるポイントである。

おわりに
   人類が初めて怒りで石を相手に投げて以降、上記したとおり戦いの勝利はOODAループのサイクルを相手より早く完了させることにかかっている。このOODAループを相手より早く完了させる手段として、現代の無人兵器システムはAIやMLの技術の発展により、ある程度自律性を持たせることが可能になってきている。この無人兵器システムの自律性は戦争に革命を起こすとも言われており36、今後の技術動向から、人間による判断の介在という遅延を防止するため、人間は意思決定に際し、システムにますます委譲依存することになると考えられる。たとえそうであったとしても使用するシステムの品質(スカッドミサイルなのかトマホークなのか)、兵器の火力(拳銃なのか核兵器なのか)、戦闘状況(平易なのか危機的なのか)や場所(砂漠なのか市街地なのか)等によっては人間が介在した方が良い場合もある。
   ヴィンセンス事案ではループ内の人間(human in the loop)が有効に機能しなかったために290名もの犠牲者を出したが、ソビエト核誤報事案のように核兵器の発射管制装置には、human in the loop が有効に機能した。また、ホーネット撃墜事案は二重の安全対策を施していたにも拘らず、弾道ミサイル対処のために、指揮官がペトリオットシステムを「auto-fire」モード(human on the loop)にしていたことと、人間が過度にシステムを信用していたことが重なり、ホーネットを誤射した。しかし、システムのhuman on the loopが決して否定されるべきではない。なぜなら緊迫した戦闘状況で、自軍が飽和攻撃を受けているような状況(人間が対応できない速さや量で攻撃された場合)であれば、インバンドの飛翔物を全て撃ち尽くす、イージスシステムの「Auto-Special」モードやペトリオットシステムの「auto-fire」モードは力強い味方となり得るであろう。このような問題から無人兵器システムの自律化は、「人間と機械の連携(human-machine teaming)」という観点で最適なモデルは何なのかという新たな問題を提起する。米国防総省ではこの最適モデルを研究中であり、そのプロジェクト名は人間と機械の認識の組み合わせという観点から、古代ギリシャ神話に登場する半人半馬の「ケンタウロス」と名付けられている37。この「ケンタウロス」のコンセプトに近いものとして、米陸軍の対ロケット・野戦砲・迫撃砲システム(C-RAM)が挙げられている38。このC-RAMやケンタウロスの詳細については、次回のコラムに譲るが、人間と機械の連携の最適モデルとされるC-RAMは、攻撃までの手順の大部分を自動化しているにも関わらず、人間は依然ループの中にとどまっている(human in the loop)と評価されている39。それは、オペレーターの役割が、目標が本当にロケットや追撃砲なのかを確認し、交戦区域(engage zone)に友軍航空機がいないことを最終的に確認するフェイルセーフの役割を担うためである40
   いずれにせよ、今後の技術動向から人間は致死性武力(lethal force)を行使する権限をますますシステムに委譲することになると考えられる。しかし、自律システムを使用することによって友軍や民間人を誤射した場合、オペレーターや指揮官は自律システムに責任を委譲することができない以上、人間こそが「究極のサーキットブレーカー」ということは忘れるべきではないだろう。

(幹部学校運用教育研究部 未来戦研究所 上野博嗣)

(本稿に示された見解は、幹部学校における研究の一環として発表する執筆者個人のものであり、防衛省、海上自衛隊の見解を表すものではありません。)

--------------------------------------------------------------
1 岩本誠吾「国際法から見た無人戦闘機(UCAV)の合法性に関する覚書」『産大法学』45巻3・4号、2012年1月、136頁。
2 同上。
3 Paul Scharre, Army of None: Autonomous Weapons and the Future of War, W. W. Norton & Company, 2018, p. 14.
4 Ibid.
5 Ibid., p. 102.
6 Christof Heyns, Report of the Special Rapporteur on extrajudicial, summary or arbitrary executions, A/HRC/23/47, 9 April 2013[hereinafter: Heyens Report], pars 28-32.
7 Joint Doctrine Note 2/11[hereinafter: JDN 2/11 ] The UK Approach to Unmanned Aircraft Systems , 2011, pars 307-311.
8 Philip Alston, Interim report of the Special Rapporteur on extrajudicial, summary or arbitrary executions, A/65/321, 23 August 2010 [hereinafter: Alston Report], par. 30.
9 Autonomous Systems -Issues for Defence Policymakers, Headquarters Supreme Allied Commander Transformation [hereinafter: NATO Autonomous Systems 2015], October 2015, p. 70.
10 Scharre, Army of None: Autonomous Weapons and the Future of War, p. 16.
11 Ibid.
12 Ibid.
13 Ibid., pp. 15-16.
14 Pentagon Unmanned Systems Integrated Roadmap 2017-2042[hereinafter: Pentagon USIR2017], August 28, 2018, p. 17. ; 同様の記述としてDefense Science Board Study on Autonomy, June 2016, p.4.
15 Ibid. なお英国防総省で自律システムというためには、「人間と同じレベルの状況理解を達成することができなければならない」として、米国防総省よりも高い自律のレベルを要求している。英国防総省と米国防総省の自律システムの認識の相違について、拙稿「完全自律兵器(Fully Autonomous Weapons)の自律とは-ターミネーターは誕生するのか-」4-5頁参照。
16 Pentagon USIR2017., pp. 17-18.
17 Scharre, Army of None: Autonomous Weapons and the Future of War, pp. 44-47.
18 Pentagon Unmanned Systems Integrated Roadmap 2011-2036, September 2012, p. 45.この他にも米国防省では、無人システムにおける自律性を戦略的重要テーマの一つとしてあげている。Pentagon Unmanned Systems Integrated Roadmap 2017-2042, August 2018, v.
19 OODAループとは、米空軍退役大佐ジョン・ボイド(John Boid)が自ら経験と軍事史の研究などによって考案した意思決定サイクル。田村尚也『用兵思想入門』作品社、2016年12月5日、331頁。
20 Vincent Boulanin & Maaike Verbruggen, Mapping The Development of Autonomy in Weapon Systems, SIPRI Insights on Peace and Security (Stockholm Int’l Peace research Inst., Solna, Sweden), November 2017, p. 61.
21 Scharre, Army of None: Autonomous Weapons and the Future of War, p. 23.
22 人間と機械の連携という観点以外には、特に上記した③の完全自律兵器システムに対して、同自律システムが人間の介在なしに武力紛争法を準拠できるのかという問題や、システムが人の生死を判断していいのかという倫理の問題等が挙げられており、現在「致死性自律兵器システム(Lethal Autonomous Weapons System: LAWS)」として、特定通常兵器使用禁止制限条約(Certain Conventional Weapons: CCW)締約国会議の枠組みで議論されている。LAWSの規制枠組みについて、岩本誠吾「無人兵器と国際法」『無人・AIと法』弥永真生他編、有斐閣、2018年、291-295頁が詳しい。(LAWSについては、本校から2019年7月発刊予定の『海幹校戦略研究』で筆者が詳述予定)。
23 海幹校戦略研究コラム131〈http://www.mod.go.jp/msdf/navcol/SSG/topics-column/col-131.html
24ヴィンセンス事案: Paul Scharre, Army of None: Autonomous Weapons and the Future of War, pp. 169-172.を参照。
25 Scharre, Army of None: Autonomous Weapons and the Future of War, pp. 163-164.
26 Michael N. Schmitt & Jeffrey S. Thurnher, “’Out of the Loop’ :Autonomous Weapon Systems and Law of Armed Conflict”, Harvard National Security Journal, Vol. 4, 2013, pp. 248-249 .
27 ソビエト核誤報事案: Scharre, Army of None: Autonomous Weapons and the Future of War, pp. 1-2.参照
28 Scharre, Army of None: Autonomous Weapons and the Future of War, pp. 141.
29 Ibid., pp. 143.
30 Ibid., pp. 138-139.
31 Ibid., pp. 140-143.
32 Ibid., pp. 143-144.
33 Ibid.
34 Ibid., p. 144.
35 Ibid.
36 Schmitt & Jeffrey S. Thurnher, “’Out of the Loop’ :Autonomous Weapon Systems and Law of Armed Conflict”, p. 279.
37 Scharre, Army of None: Autonomous Weapons and the Future of War, p. 323.
38 Ibid.
39 Ibid. ただし、ヒューマンライトウォッチでは、C-RAMをhuman on the loopと評価しており、兵器システムの自律性を批判する論者からは、現代兵器システムの自律性をより高く評価する傾向がある。Human Rights Watch, Losing Humanity: The Case against Killer Robots, November 2012, pp. 10-13.
40 Scharre, Army of None: Autonomous Weapons and the Future of War, pp. 324-325.