Watch

GoogleはAIの利用方法に関するガイドラインを発表し、軍事および監視分野の顧客とは慎重に対応することを誓う

GoogleはAIの利用方法に関するガイドラインを発表し、軍事および監視分野の顧客とは慎重に対応することを誓う

トム・クレイジット

Google CEOサンダー・ピチャイ氏がGoogle I/O 2017で講演
Google CEO サンダー・ピチャイ氏が Google I/O 2017 で講演。(スクリーンショット)

Googleが悪事を働かないと初めて約束した頃、世界はもっとシンプルな場所だった。木曜日、Googleは自社のアプリケーションとクラウド製品の顧客向けに人工知能技術をどのように活用するかに関するガイドラインを発表し、主に人間を傷つけることを目的とした兵器への自社技術の利用を否定した。

このガイドラインは、Googleが昨年国防総省と締結した「Project Maven」と呼ばれる契約における人工知能技術の使用をめぐり、社内外から激しい反発があったことを受けて策定された。Googleは木曜日もこの契約を擁護し、Google CloudのCEOであるダイアン・グリーン氏は「この契約にはドローンによる動画撮影とAIを用いた低解像度の物体識別が含まれており、人命救助が最大の目的だった」と述べた。しかし、GoogleはProject Mavenに基づく新たな契約は締結しないと明言し、現在の契約は尊重する意向を示した。「Google Cloudが契約を遵守していることを明言したい」とグリーン氏は記している。

AI研究と応用のより広範な分野において、サンダー・ピチャイCEOは、GoogleがAI技術を開発する際に遵守する7つの原則を示し、特に「社会的に有益」であること、そして「安全性を確保した上で構築・テストされる」ことを約束した。「これらの技術は、明確かつ思慮深く、そして積極的に取り組む必要がある重要な課題も引き起こしていることを認識しています」と、同氏は記している。

ピチャイ氏は、Googleが「AIの設計や導入を行わない」と明言した4つの分野を挙げた。以下は、そのリストに含まれるガイドライン(中には自律型戦車が突き抜けるほどの重大な注意事項を含むものもある)である。

  • 全体的な危害を引き起こす、または引き起こす可能性のある技術。重大な危害リスクがある場合、当社は、メリットがリスクを大幅に上回ると判断される場合にのみ開発を進め、適切な安全上の制約を組み入れます。
  • 人間に傷害を与える、または直接的に容易にすることを主な目的または実施とする武器またはその他の技術。
  • 国際的に認められた規範に違反して監視目的で情報を収集または使用する技術。
  • 国際法および人権の広く受け入れられている原則に違反する目的を持つテクノロジー。

グリーン氏は投稿の中で、グーグルはサイバーセキュリティなど特定の分野で政府と協力を続けると述べた。しかし、国防総省が戦闘中の部隊もカバーする次世代クラウドコンピューティングシステムを単一のクラウドベンダーに構築してほしいと主張し続けるならば、グーグルは10年間で最大100億ドルに達する可能性のあるJEDI契約の獲得競争から脱落することになるだろう。

人工知能(AI)は、ここ1年ほどクラウドコンピューティングの最もホットな分野です。6月27日に開催されるGeekWire Cloud Tech Summitでは、AppleのAIおよび機械学習担当シニアディレクターであるカルロス・ゲストリン氏を招き、AI関連のトピックを複数取り上げるほか、この進化する分野に関するAIに特化した5つの技術講演も開催されます。しかし、大手クラウドベンダー各社が、最も優れたAI技術を持つ企業としての地位を確立しようと競い合っていることは、今年、一部の分野では彼らの見通しを必ずしも楽観的にしているとは言えません。

Googleのガイドラインは、Amazon Web Services(AWS)が、全米の法執行機関に販売するサービスにおいてAIを活用した画像認識技術を使用していることを擁護した2週間後に発表された。この件もプライバシー擁護派から疑問の声が上がっている。今年初め、Microsoftの研究者は、特定の用途でAIを利用したい企業からの取引を断っていると述べていたが、その決定の根拠となるガイドラインについては言及を拒否していた。