Watch

AI の監視: それは政府、業界、消費者、あるいはこれらすべての役割でしょうか?

AI の監視: それは政府、業界、消費者、あるいはこれらすべての役割でしょうか?

アラン・ボイル

AIバイアスパネル
ソーシャルメディア起業家のショーン・ランギ氏が、AIバイアスに関する議論の中でパネリストに質問を投げかけている。左から、ワシントン大学法学教授ライアン・カロ氏、ChatModeのチャド・オダ氏、EqualAIのミリアム・ボーゲル氏、マイクロソフトのナヴリナ・シン氏、LivePersonのアレックス・スピネッリ氏。(GeekWire Photo / Alan Boyle)

アルゴリズムによる偏見、プライバシーの侵害、不当なプロファイリングなど、人工知能の潜在的な悪影響に対して社会がどのように対処するかはまだ明らかではないかもしれないが、安全策が必要であることはすでに明白である。

これは、EqualAI と LivePerson がシアトルで開催した、水曜日の夜の AI バイアスに関するパネルディスカッションの要点です。

パネルのプレゼンターは2人とも、AIの欠点に対処する方法を見つけることに関心を持っている。LivePersonは、チャットボットやその他のAI対応ツールが企業とその顧客とのやり取りをいかにスムーズにできるかに関心があり、一方EqualAIは、アリアナ・ハフィントン、Wikipediaのジミー・ウェールズ、LivePerson CEOのロバート・ロカシオらが支援する、AIの偏見を減らすための取り組みである。

「企業は世界を変えるためにAIを開発している」と、オバマ政権と司法省に勤務し、同一賃金問題や法執行機関への偏見研修に注力してきたイコールAIのエグゼクティブディレクター、ミリアム・ボーゲル氏は述べた。

「彼らは善行をしようとしています。これまで手を差し伸べられなかった人々に手を差し伸べ、そうでなければ生まれなかった会話を始めようとしています。[暗黙の偏見]は必ずしも悪意から生じるものではなく、人間の行動から生じるものだということを理解しているのです」と彼女は述べた。「ですから、重要なのは、その使命を理解し、尊重する立場から会話を始めることです。」

AI が失敗する可能性がある例はたくさんあります。

  • マイクロソフトの初期のチャットボットの1つ、「Tay」というニックネームが付けられたものは、インターネットの荒らしによってすぐに憎悪に満ちた激しい言葉を吐き出すように訓練された。
  • 研究者らは、特に女性や有色人種に関しては、この技術の信頼性が十分でないとの懸念から、アマゾンに対し、法執行機関への顔認識ソフトウェアの販売を停止するよう求めた。
  • 中国当局は、中国西部に住むイスラム教徒が大部分を占めるウイグル族少数民族の監視に顔認識ソフトウェアを使用していると報じられている。
  • プロパブリカは、有罪判決を受けた犯罪者が釈放後にさらなる犯罪を犯す可能性を評価するために設計されたAIソフトウェアに人種的偏見があることを発見した。

マイクロソフトは、乱用される可能性を考慮し、AI ソフトウェアの使用方法を決定するために、Aether Committee (「Aether」は AI とエンジニアリングおよび研究における倫理の略) と呼ばれる高レベルの社内グループを設立しました。

今週、マイクロソフト社長のブラッド・スミス氏は、エーテル委員会の活動についてさらに詳しい情報を提供した。スミス氏によると、同社はカリフォルニア州の法執行機関から、交通違反で検挙された人物の確認に顔認識ソフトウェアを使用するよう要請されたが、いずれも拒否したという。また、州都の監視カメラにこのソフトウェアを使用するよう求める外国からの要請も拒否したという。

マイクロソフト AI のプリンシパル/ディレクター プロジェクト マネージャーである Navrina Singh 氏は、Aether レビュー システムは「企業が何を実現できるかを示す素晴らしい例に過ぎない」と述べています。

ヴォーゲル氏は、AI企業が自らを監視することで自らに利益をもたらすことができることに同意した。

「暗黙の偏見についてよく考えていないと、ビジネス上の問題になるという十分な証拠が今や存在します」と彼女は述べた。「無意識のうちにこの暗黙の偏見をAIに組み込んでいると、潜在的な顧客を遠ざけてしまう可能性があります。ひいては、潜在的な消費者が製品を購入し、使用する機会を失ってしまう可能性があるのです。」

しかし、彼女はまた、政府が AI を規制する必要があるとテクノロジー企業の幹部が言うのも聞いている。

「興味深いですね。テクノロジー企業がこれまでどの時代でも、このような発言をしたことがありません」とヴォーゲル氏は述べた。「この発言には多くのメリットがあると思いますが、同時に、今この場で言うには少し安易すぎるとも思います。私が耳にするもう一つの話題、つまりDCにはこの議論をする能力がない、ということを考えると。」

ライブパーソンの最高技術責任者アレックス・スピネリ氏は、AIの偏見に対する安全策は、データ分析に使用されるアルゴリズムだけでなく、それらのアルゴリズムのトレーニングに使用されるデータもカバーする必要があると述べた。

「会話を構築する場合、会話の対象となる人口層を代表するデータでトレーニングすることが、ゴールドスタンダードの目標になると思います。これは当然のことだと思いますが、簡単ではありません。」

データプライバシーはAIにとってもう一つの悩みの種であり、ワシントン大学のライアン・カロ法学教授は、プライバシーに関する議論が、より厳しい規制を求める声を数多く巻き起こしていると述べた。

「『P』という言葉、つまり『先取権』については少し心配しています」とカロ氏は述べた。「カリフォルニア州のように、あまりにも多くの州が産業界にとって負担となる法律をあまりにも多く制定すると、連邦法への支持が高まっていくことがあります。しかし、その立法の目的の一つは、革新的な州が行っているあらゆることを先取りすることなのです。」

スピネッリ氏は、消費者と有権者はプライバシー、AI、そしてデータ分野のその他の問題をめぐる議論で何が問題になっているのかについて、理解を深めるべきだと述べた。

「まず第一に『自分自身に情報を得る』ことが重要だと私は思います」と彼は語った。