人類は「キラー・ロボット」を開発してよいのか?|高橋昌一郎【第7回】
フランケンシュタイン・コンプレックスとキラー・ロボット
1818年、イギリスの小説家メアリー・シェリーが『フランケンシュタイン』を発表し、1931年にユニバーサル・ピクチャーズが映画化して世界中に大反響を巻き起こした。この小説が『ジキル博士とハイド氏』(1886年)や『ドラキュラ』(1897年)の先駆けとなった19世紀の幻想的な「ゴシック小説」である。
フランケンシュタインは、死体を墓から掘り起こし、繋ぎ合わせて人造人間を作る。ところが、この怪物は結果的にフランケンシュタインを恨むようになり、彼の妻や友人を殺害していく。そこから、自分の開発した人工物に破滅させられる恐怖を「フランケンシュタイン・コンプレックス」と呼ぶようになった。この名称を創作したSF作家のアイザック・アシモフは、そこに人類が人工物に支配される未来への潜在恐怖を見る。映画『ターミネーター』の世界である。
さて、2001年から2021年まで20年にわたって繰り広げられたアフガニスタン戦争では、過去の戦争とは本質的に異なる光景があった。その状況を描いたのが2014年の映画『ドローン・オブ・ウォーズ』である。この作品の主人公は、ラスベガス近郊の基地でアフガニスタン上空を飛ぶドローン攻撃機を操縦する。エアコンの効いたコンテナでスクリーンを見ながら敵のタリバン兵をミサイル攻撃し、勤務時間が終われば家族の待つ温かい自宅に帰る。ところが、ゲームのように人間の生命を奪う異様な日々の中で、彼の精神は限界を迎える……。
このように遠隔地からの命令に従って自動的に動く無人のドローン・航空機・ヘリコプター・水上艦艇・地上車両は、すでに実用化されている。ただし、その命令者が精神的に不安定になり、ヒューマン・エラーを犯す危険性がある。
そこで、人間の代わりに高度な人工知能を搭載し、人間の命令や関与なく敵を抹殺する攻撃を行う「致死性自律兵器システム(LAWS: Lethal Autonomous Weapon System)」が考案された。LAWSの別名が「キラー・ロボット」である。LAWSが実用化されれば、戦争は全面的に機械に任せておけばよいことになる。
しかし、国際人権団体アムネスティ・インターナショナルをはじめとする世界60カ国の160以上に及ぶNGOは、2013年から「ストップ! キラー・ロボット」運動を続けている。その最大の理由は、人間の生殺与奪の権限を人工知能に委ねることが人間の尊厳に対する冒涜であり、「人権侵害」だとみなすからである。さらに、人工知能が戦闘員と非戦闘員を識別できずに国際法に違反して攻撃する可能性や、過度の苦痛を理解せずに人間に与える危険性も指摘されている。
本書の著者・橳島次郎氏は、過去から現在に至る科学技術と戦争の歴史を概観し、人工知能兵器がどこまで許されるのか、兵士の心身強化改造の是非と人体実験の倫理的問題に踏み込む。とくにアメリカ合衆国国防省高等研究計画局の方針、フランス防衛倫理委員会意見書の分析は貴重であり、非常に興味深い。
本書で最も驚かされたのは、2020年のリビア内戦でトルコ製「Kargu-2」という「キラー・ロボット」が使用されたという指摘である。国連安全保障理事会の報告書によれば、リビア政府軍は退却中の反政府軍を無人戦闘機で攻撃し続けた。このシステムは「オペレーターと兵器間のデータ接続を必要とせずに目標を攻撃するようプログラミングされていた」というのである。リビア政府は公式に認めていないが、まさに『ターミネーター』の狂気の世界が迫っている。
国連に提出された「キラー・ロボット」開発研究中止提案は、アメリカとロシアの拒否権で否決された。我々は、とくに人命や人類の将来に関わる分野で、どこまで人工知能を信頼して何を任せてよいのか、議論を深める必要がある!