
マイクロソフトはAI倫理を理由に一部の販売を断っているとトップ研究者のエリック・ホーヴィッツ氏が語る

マイクロソフト研究所のテクニカルフェロー兼ディレクターのエリック・ホーヴィッツ氏は、人工知能技術の潜在的な悪用に対する懸念から、マイクロソフトは大幅な販売中止に追い込まれたと述べた。
ホルヴィッツ氏は本日、ピッツバーグで開催されたカーネギーメロン大学とK&Lゲイツ主催の倫理とAIに関する会議で、マイクロソフトのAI倫理への取り組みについて説明した。
マイクロソフトでこの問題に取り組んでいる主要グループの一つが Aether 委員会です。「Aether」は「AI とエンジニアリングおよび研究における倫理」を意味します。
「大変な努力が払われてきました…そしてこの委員会には力があると言えて嬉しく思います」とホーヴィッツ氏は講演の中で述べた。
同氏によると、同委員会はマイクロソフトのAI技術が顧客によってどのように活用されるかを検討し、経営幹部にまで及ぶ提言を行っているという。
「かなりの販売が中止されました」とホーヴィッツ氏は述べた。「また、その他の販売では、使用に関して様々な具体的な制限が明記されており、『顔認識やこの種の予測にデータ駆動型パターン認識を使用することはできません』といった制限も含まれていました。」
ホーヴィッツ氏は、マイクロソフトの人権に対する取り組みについては言及したものの、エーテル委員会の作業の結果、どの顧客や特定のアプリケーションが除外されたかについては詳しく述べなかった。
同社は過去1年ほどにわたり、顔認識や感情認識を含むクラウドベースのMicrosoft Cognitive Servicesスイートを政府機関や産業界の顧客に提供してきた。
問い合わせに対し、Microsoft は GeekWire に電子メールでこの問題に関する声明を送付しました。
マイクロソフトは、AIを責任ある、信頼できる、倫理的な方法で開発・展開することが非常に重要だと考えています。マイクロソフトは、AIが人々や社会に与える影響に関する疑問、課題、機会を特定、調査、そして推奨するために、Aether Committeeを設立しました。
同社は、ホルビッツ氏のコメントを裏付けるような詳しい情報は提供していない。
Facebookのデータプライバシー保護における不備が報じられたことを受け、AIと大規模データ分析をめぐる倫理的問題は、これまで以上に大きな注目を集めています。同社のCEO、マーク・ザッカーバーグ氏は、今週開催される注目度の高い議会公聴会で、この論争について発言する予定です。
大きな懸念の一つは、ケンブリッジ・アナリティカが2016年の大統領選挙でFacebookのデータを利用して有権者をターゲットにした事例です。ホロヴィッツ氏は、有権者操作をAIアプリケーションの潜在的な悪用例の一つとして挙げました。加えて、人権侵害の助長、死亡や重傷のリスクの増大、資源やサービスの提供拒否なども挙げられます。
こうした懸念に対処するには、新たな規制体制が必要になるかもしれない。ホロヴィッツ氏は、「アンダーライターズ・ラボラトリーズやFDAなど、誰かがこれをベストプラクティスとして検討する」役割を想像できると述べた。
AIエージェントを自ら監視するようにプログラムする方法さえあるかもしれない。「システムに自らのパフォーマンスを監視する能力を与えることも考えられます」とホーヴィッツ氏は述べた。
こうしたコンピューター化された監視システムがあれば、マイクロソフトは2016年にオンラインのいたずら者が人種差別的なコメントを吐き出すように教え込んだミレニアル世代向けのAIエージェントTayで起きた問題を回避できたかもしれない。「あれは物事がうまくいかなかった好例だ」とホロヴィッツ氏は認めた。
AI エージェントにとって最も効果的で、潜在的に最も問題の少ない設定は、人間の意思決定のバックストップとして設定することかもしれません。
ホロヴィッツ氏は、退院後30日以内に再入院するリスクが高い患者を特定するマイクロソフトのAIプログラムを紹介した。このプログラムは、医療従事者が退院後の介入において、リスクの高い患者を的確に特定するのに役立つ可能性がある。このプログラムの学術的評価では、再入院を18%削減し、病院のコストを約4%削減できるとされている。
理想は、人間と機械が協力して働くことです。「私たちは相互補完性を重視したAI設計について議論しています」とホルヴィッツ氏は述べました。
例えば、AIエージェントは、生身の専門家が通常見逃してしまうような問題を予測することができます。「人間が知らないことを考えているのです」とホロヴィッツ氏は言います。
しかし、人間が運転する自動運転車が関係する最近の注目を集めた死亡事故が示すように、AIエージェントにも盲点がある可能性がある。
ホロヴィッツ氏は、今後数年間は、AI技術を現場に投入する適切なタイミング、段階的な試験の展開手順、試験結果の報告、完全な情報開示、必要に応じてフェイルセーフ設計を講じるといった点について、より一層の検討が必要になるだろうと述べた。
マイクロソフトで進められている研究の 1 つは、AI エージェントが直面する可能性のある盲点、つまり「未知の未知」を予測することです。
「シミュレーターで生き方や行動の仕方を最初から学び、それを現実世界に持ち込んだシステムにおいて、盲点をどうやって見つけるのでしょうか?」とホロヴィッツ氏は言う。「少し不安や心配になるべきなのはどこでしょうか?」
不安を抱えたAI?倫理規定を持つ機械?それとも自己不信?人工知能は、まるで人間に成り下がりつつあるかのように思える時がある。
4月10日午後12時15分(太平洋標準時)更新: Aether Committeeに関するMicrosoftからのメールによる声明を追加しました。このレポートにはGeekWireのTom Krazitが協力しました。