
殺人ロボット技術に関する報告書でアマゾン、マイクロソフトなどの大企業が精査される
アラン・ボイル著

オランダの活動家たちは、AIソフトウェア、顔認識、群がる航空システムなど、致死性の自律型兵器への道を開く可能性のある技術について懸念を表明しており、アマゾンやマイクロソフトなど複数のテクノロジー大手の立場に疑問を抱いている。
米国の一部のAI研究者も同様です。
「キラーロボット阻止キャンペーン」として知られる国際的取り組みに参加しているオランダの団体、パックスが発表した報告書は、アマゾン、マイクロソフト、その他の企業が、自律型致死兵器に関する活動や方針についての同団体の問い合わせに応じなかったと非難している。
「マイクロソフトやアマゾンのような企業は、人間の直接的な介入なしに人を殺害できる、非常に物議を醸す兵器の開発を現在進めていることをなぜ否定しないのか?」と、報告書の筆頭著者であるフランク・スライパー氏は今週のニュースリリースで述べた。「多くの専門家は、これらの兵器は基本的な法的および倫理的原則に違反し、国際平和と安全保障を不安定にする脅威となると警告している。」
パックス氏の報告書は、アマゾンとマイクロソフトが米国防総省の100億ドル規模のクラウドコンピューティング・プロジェクト「統合企業防衛インフラ(JEDI)」に入札したこと、そして両社が開発した顔認識ソフトウェアについて懸念を表明している。報告書によると、ロボット兵器システムに関連する可能性のある他の技術としては、アマゾンのドローンや、現在軍事訓練に使用されているマイクロソフトのHoloLens拡張現実システムなどが挙げられる。
「アマゾンとマイクロソフトの他に、この報告書では、AerialX(カナダ)、Anduril、Clarifai、Palantir(すべて米国)が、自律型兵器に関連する技術に取り組んでいる企業として挙げられているが、これらの企業は、自社の立場を明確にするよう求める何度も要請に返答しなかった」とパックス氏は述べた。
合計で、パックスは世界中の21社に「高い懸念」の評価を与えた。
一方、パックス氏は、自社の技術を致死性自律兵器の開発や製造に利用することに公然と反対する姿勢を示した以下の4社を特に指摘した。
- Googleは 2018年にAI原則を発表し、その中でGoogleは「人を傷つけたり直接助長したりすることを主な目的または実装とする兵器やその他の技術」にAIを設計または導入しないと明言している。
- ビジョンラボはパックスに対し、「致死性の自律型兵器システムの開発や販売は行っていない」と述べ、同社の契約では「軍事用途でのビジョンラボの技術の使用は明確に禁止されている」と付け加えた。
- ボストン・ダイナミクスの親会社であるソフトバンクは、自律型殺傷兵器を開発することはなく、「軍事目的で使用可能な技術を開発する意図はない」と述べた。
- アニマル・ダイナミクスは、 CEOのアレックス・カッチャ氏の声明を発表し、「当社の社則およびオックスフォード大学との関係に基づき、当社が製造する製品を兵器化したり、『運動』機能を付加したりすることはありません」と述べた。
AmazonとMicrosoftにコメントを求めており、何か情報が入り次第、この記事を更新します。ちなみに、MicrosoftはAIアプリケーションがもたらす倫理的問題に対処するため、「Aether」と呼ばれる諮問委員会を設立しました。
4月、マイクロソフト社長のブラッド・スミス氏は、カリフォルニア州の法執行機関が「誰かを停車させるたびに」顔認証スキャンを実施する計画だったため、同社への顔認証ソフトウェアの販売を拒否したと述べた。また、名前が明らかにされていない外国の都市の公共スペースに設置されたカメラへのこの技術の使用も拒否したと述べた。
一方、Amazonは、クラウドベースの顔認識技術「Rekognition」の法執行機関による利用に関する懸念に対応している。Amazon Web ServicesのCEO、アンディ・ジャシー氏は6月、この技術に対する連邦政府による規制に前向きな姿勢を示した。
MITの物理学者であり、Future of Life Instituteの共同設立者兼所長でもあるマックス・テグマーク氏は、自らが「有益なAI」と呼ぶアプローチの一環として、自律型致死兵器に烙印を押える国際条約の締結を支持している。外交官たちは長年にわたり、そのような条約の策定を議論するための会合を開催してきた。今週ジュネーブで開催された会合もその一つだが、この構想は今のところあまり進展していない。
GeekWire への電子メールで、テグマーク氏は、パックスの報告書は正当な懸念を提起していると述べた。
AI研究者としての私の意見ですが、これらの兵器の開発に必要な最も重要な専門知識は、政府の研究所ではなく、大手テクノロジー企業にあります。テクノロジー企業は、AIの許容される使用と許容されない使用の境界線を明確に示すポリシーを必要としています。なぜなら、従業員、投資家、そして顧客がそれを知りたがっているからです。
フォローアップのメールでは、シアトルのアレン人工知能研究所のCEO、オーレン・エツィオーニ氏もこの見解に賛同し、挑発的な質問で賭け金を引き上げました。
テクノロジー企業には、AIの許容される利用と許容されない利用の境界線を明確に示すポリシーが必要であることに賛成です。また、基礎研究と国防総省(DoD)向けの機密プロジェクト業務を区別する必要があります。最後に、もし我が国のテクノロジー企業が国防総省との協力を拒否し、中国、ロシア、その他の国のテクノロジー企業が反対の決定を下した場合、長期的には私たちはどうなるのでしょうか?