Iphone

ホワイトハウス初のAIワークショップは、機械(と人間)が政府をどう変えるかに焦点を当てている

ホワイトハウス初のAIワークショップは、機械(と人間)が政府をどう変えるかに焦点を当てている
専門家によると、人間の知能と人工知能は今後数十年で連携する可能性があり、それは政府や司法制度にとって課題となるだろう。(クレジット: クリスティン・ダニロフ / MIT ファイル)
専門家によると、人間の知能と人工知能は今後数十年で連携する可能性があり、それは政府や司法制度にとって課題となるだろう。(クレジット: クリスティン・ダニロフ / MIT ファイル)

インテリジェントマシンがすぐに世界を支配することはないだろう。しかし、マシンがローンの申し込みを断ったり、車を事故らせたり、人種や性別を理由に差別したりしたらどうなるだろうか?

ある意味、答えは簡単だ。「状況次第だ」と、自動運転車がもたらす問題を専門とするサウスカロライナ大学の法学教授、ブライアント・ウォーカー・スミス氏は言う。

しかし、それははるかに複雑な法的議論の扉を開くことになる。「『私のロボットがやった』というのは言い訳にならないように思います」と、シアトルに拠点を置くアレン人工知能研究所(AI2)のCEO、オーレン・エツィオーニ氏は言う。

アメリカの法制度と政策立案者が直面する急速に増大する課題は、本日ワシントン大学ロースクールで開催された、ホワイトハウス初の人工知能に関する公開ワークショップの焦点となった。スミス氏、エツィオーニ氏をはじめとする専門家たちは、満員の講堂で午後いっぱいにわたり、様々な選択肢について議論を交わした。

ホワイトハウスの副最高技術責任者エド・フェルテン氏は、本日の議論は、今年後半に発表される予定の公開報告書や国民向けの情報要請を含む省庁間の政策立案プロセスに反映されるだろうと述べた。

「RFIに関する今後の展開にご注目ください」とフェルテン氏は述べた。

一つのメッセージは明確に伝わってきた。汎用人工知能(AGI)の現状は、スティーブン・ホーキング、イーロン・マスク、ビル・ゲイツといった著名人が表明する懸念を正当化するほどには進歩していない、ということだ。「彼らの懸念がどこから来ているのか、考えざるを得ません」とエツィオーニ氏は述べた。

「AIに関して、今すぐ対処すべき非常に現実的な懸念がいくつかあると思います」と彼は述べた。「実存的な脅威はそのうちの一つではありません。実際、AIはいくつかの非常に現実的な懸念から目を逸らしていると思います。一つは雇用に関する懸念、そしてもう一つはプライバシーに関する懸念です。」

雇用面では、急速な自動化により、2050年には世界人口の半分以上が失業する可能性があると推定されています。プライバシー面では、インターネットを通じて個人に関するデータポイントがますます収集され、ますますインテリジェントなエージェントによって処理されています。

こうした処理は時に物議を醸す結果を生み出す。例えば、ある実験では、GoogleのAdFisherプログラムは、ユーザープロフィールをシミュレートした結果、女性よりも男性に高収入の仕事の広告を表示する傾向があることが研究者によって発見された。また、今週ProPublicaは、刑事被告人の再犯リスク評価に広く使用されているソフトウェアプログラムによって、黒人は白人よりも厳しく評価されていると報じた。

ゲスト解説:人工知能の真の脅威

これはプログラムのせいでしょうか、それともプログラマーのせいでしょうか?スミス氏が言ったように、それは状況によります。

ニューヨークのマイクロソフト研究所の主席研究員ケイト・クロフォード氏は、今日の狭い範囲に焦点を絞ったAIツールであっても、機械の背後にいる人間は倫理と説明責任にもっと注意を払う必要があると述べた。

「これらはある程度ブラックボックスのように機能するシステムです」と、ニューヨークのマイクロソフトリサーチの主任研究員、ケイト・クロフォード氏は述べています。「これらのシステムがインフラになり始める時こそ、最高レベルの適正手続きと公平性を確保する必要があると思います。」

クロフォード氏は、AIプログラムが望ましい政策成果を生み出しているかどうかを確認するために、外部監査を実施することが提言の一つだと述べた。イェール大学法学教授のジャック・バルキン氏は、政策立案者が意思決定プロセスにコンピューター科学者を参加させることも提言の一つだと述べた。

「私も同感です」とクロフォード氏は言った。こうした問題に取り組むコンピューター科学者のグループはすでに存在し、「機械学習における公平性、説明責任、透明性」と呼ばれている。

画像: 自動運転車
警察官がGoogleの自動運転車を停車させる。(写真提供:Aleksandr Mileweski、Google経由)

自動運転車や半自動運転車が大量に路上を走行するようになれば、こうした法的疑問は大きな問題となるだろう。ボルボは自社の自動運転車が関与する衝突事故について全責任を負うと表明しているが、テスラ・モーターズはより慎重な姿勢を示している。

責任問題を判断する際には、自動化がない場合と同様に、法制度は製造業者とユーザーを巻き込んだ対立する主張の妥当性を検討する必要があるとスミス氏は述べた。ワシントン大学のコンピュータサイエンス教授ペドロ・ドミンゴス氏は、人間は最終的には知能機械を考慮に入れることに慣れるだろうと述べた。

「人々がもともと不快に感じていたものを、私たちはすぐに当たり前のこととして受け止め始めるのです」と彼は語った。

ドミンゴス氏は、インテリジェントマシンが武器を携行している場合でも、幅広い用途で同様のことが当てはまる可能性があると述べた。

「もし自分が戦場にいて、目の前にドローンがいて、私を撃つかどうかを決めているとしても、その決定が人間か機械かは関係ありません」と彼は言った。「私は生きるために正しい判断をしてもらいたい。機械に判断してもらいたい。手術も同じだと思います。成功率99%のロボット外科医と、成功率98.5%の人間の外科医、どちらを選びますか? 間違いなく、私はロボットを選びます。」

エツィオーニ氏は、最終的にはAIプログラムが互いに監視し合い、誤動作を起こさないようにすることが社会に受け入れられるかもしれないと述べた。しかし、もし何か問題発生した場合、あるAIが別のAIを訴えることはできるのだろうか?

エツィオーニ氏はその提案に微笑んだ。「確かに、訴訟を起こすよりはいいだろうね」と彼は言った。

ホワイトハウスAIシリーズの次回ワークショップは、社会貢献のための人工知能に焦点を当て、6月7日にワシントンD.C.で開催されます。3つ目のワークショップは、AIの安全性と制御に焦点を当て、6月28日にピッツバーグで開催されます。最終ワークショップは、AIの社会的および経済的影響について探求し、7月7日にニューヨーク市で開催されます。