
政策専門家は人工知能を規制するための賢明な方法についてアイデアを交換している
アラン・ボイル著

人工知能の適切な使用に対する規制は、AI自体の台頭と同じくらい避けられないものですが、それがどのように行われるかはまったく明らかではありません。
「これは単なる『信頼』ほど単純な話ではありません」と、世界経済フォーラム第四次産業革命センターのAI・機械学習プロジェクト責任者、ケイ・ファース=バターフィールド氏は述べた。「これはもっと複雑な問題です。なぜなら、テクノロジー自体が非常に速く、常に変化し、そして複雑だからです。」
ファース=バターフィールド氏と他の政策専門家は本日、ピッツバーグで開催されたカーネギーメロン大学とK&Lゲイツによる倫理とAIに関する会議で、AI規制の課題について意見を述べ、今後の道筋についていくつかのヒントを披露した。
Facebook データの悪用から自動運転車による死亡事故に至るまで、さまざまな出来事により、人工知能はすでに公共政策の問題として注目を集めている。
連邦取引委員会の主任技術者を務めた経験を持つCMU教授のロリー・フェイス・クレイナー氏は、AI規制への本格的な推進にとって最も可能性の高いシナリオは「誰かが死ぬことであり、自動運転車ではすでにそれが起こり始めていると思う」と述べた。
AIによる終末への懸念も、この動きを後押しする要因の一つとなっている。今週、120カ国以上の外交官がジュネーブに集結し、「キラーロボット」と呼ばれる自律型致死兵器システムの潜在的リスクについて議論する。
会議の議長であるインドのアマンディープ・ギル大使は、このような非通常兵器の使用を阻止するには非通常手段が必要だと述べた。
「国際的な査察官に肩越しに覗き込まれ、自分がコーディングしている内容を見ることを誰も許さないだろう」と、彼はピッツバーグの集会で音声リンクを通じて語った。「現時点では、何ページにも及ぶコードを引き渡すことなど誰も考えていない。なぜなら、こうした作業のほとんどは商業分野で行われているため、所有権や知的財産権に関する問題が発生するからだ。商業上の問題もある。だから、私たちはそのことについては議論すらしていないのだ。」
ギル氏は、その代わりに、業界幹部や政府関係者を含む幅広い関係者が透明性と信頼を最大限に高めるために「安全な空間を作ろうとしている」と述べた。
ギル氏が提案した取り組みの一つは、AIの最前線で何が起こっているかを監視することです。もう一つの取り組みは、各国がAIの導入と規制に関する情報交換を行うプラットフォームです。これはより具体的な国際的行動の土台となる可能性がありますが、「まだそこまでには至っていません」と彼は述べました。
ファース・バターフィールド氏は、政府と業界が協力して規制体制を整備するのが最善策だと述べた。
「私たちが考えたいのは、規制当局が企業と協力して技術の開発を支援し、その後でそれを認証できるような体制を作ることです」と彼女は語った。
同氏は、自身のセンターが政府関係者と協力し、テクノロジー問題に対する新たな統治手法の開発を目的としたさまざまなパイロットプロジェクトに取り組んでいると述べた。
ファース=バターフィールド氏は、アラブ首長国連邦にはすでに人工知能担当の国務大臣がおり、英国政府もデータ倫理・イノベーションセンターに資金提供していると指摘した。中国とフランスの指導者たちも、政府主導のAIイニシアチブを高く評価している。
国際電気通信連合の AI for Good グローバルサミットと IEEE の自律およびインテリジェンスシステムの倫理に関するグローバルイニシアチブは、利害関係者が政策的観点から協力するための追加の機会を提供します。
来月、欧州連合(EU)が一般データ保護規則(GDPR)の施行を開始すると、ハイテク規制の真価が問われることになるかもしれない。欧州の新たなデータプライバシー保護策の成否は、今後のAI規制の方向性を決定づける可能性がある。
ファース=バターフィールド氏は、21 世紀の高度な計算ツールをどう管理するかについて真剣に考えるのにあまり長く待つべきではないと警告し、強調するために 19 世紀の比喩を加えた。
「この技術の進歩があまりにも速いため、私たちはしばしば『手遅れ』と言える状況に陥っています」と彼女は言った。「私たちが法整備をする頃には、馬は4、5畑先まで来ているのです。」