Ipad

フェイクニュースが心配?私たちとそっくりな偽人間の台頭に備えてください

フェイクニュースが心配?私たちとそっくりな偽人間の台頭に備えてください

アラン・ボイル

MIT エンタープライズ フォーラム ノースウェスト イベント
シアトル大学で開催されたMITエンタープライズ・フォーラム・ノースウェスト主催のイベントで、講演者たちは背後のスクリーンに表示されたワードクラウドを見ながら、人間と機械のインタラクションについて議論した。これらの言葉は、「テクノロジーに関して最も怖いことは何ですか?」という質問に対する聴衆からの回答として提供されたものである。(GeekWire Photo / Alan Boyle)

私たちは未来の AI 支配者の声を聞きました。それは私たちに代わってヘアサロンの予約をしてくれるのです。

先週、Google は Duplex と呼ばれる音声アシスタントを披露して世界を驚かせた。このアシスタントは電話での音声が不気味なほど人間らしく、美容院のスケジュール担当者との会話で使われる「えー」や「うんうん」といった言い方まで本物そっくりだ。

デモがどれほど現実に忠実だったのか疑問視する声も上がっている。しかし、多少の改変はあったとしても、水曜日の夜、シアトル大学でMITエンタープライズフォーラムノースウェスト主催のAI中心のイベントに集まった専門家たちにとって、Google Duplexは目を見張る体験となった。

「それがこんなに早く起こるのを目の当たりにして、一部の人たちは本当にショックを受けたと思います」と、マイクロソフトのベテランでデザイン会社 Kata の創設者であり、『Mismatch: How Inclusion Shapes Design』の著者でもあるキャット・ホームズ氏は言う。

シアトル大学でデジタル技術と文化を専門とする講師、マイルズ・コールマン氏もその一人だ。「Duplexの件には衝撃を受けました」と彼は言う。

Googleによると、Duplexの会話能力の秘密は、匿名化された通話データで訓練されたリカレントニューラルネットワークにあるという。人間の会話に見られる曖昧な文脈に対応するだけでなく、時折「えーと」といった表現(専門用語では「発話の不流暢さ」と呼ばれる)を挟み込み、人間の期待に合わせて発話のリズムを合わせることも学習した。

Duplexは今夏、Googleのモバイルデバイス向け音声アシスタントの一部として導入される予定です。しかし、人類は人間と区別がつかない人工知能エージェントを受け入れる準備ができているのでしょうか?

コールマン氏は、こうした懸念はソーシャルメディアのボットがもたらす懸念と似ていると述べた。自動投稿は、2016年の大統領選を端緒とする「フェイクニュース」論争において大きな要因となった。これを受けてTwitterは、ロシアと関連のある数万のボットを削除し、大量の自動ツイートを禁止する利用規約を改訂した。

さらに踏み込んだ取り組みを望む人々もいる。例えばカリフォルニア州では、Twitter、Facebook、その他のソーシャルメディアでボットが人間になりすますことを禁止し、ボットアカウントの所有者にそのアカウントが実際には人間ではないことを開示するよう義務付ける立法措置が取られている。

Duplex や類似の消費者向けチャットボットに、カスタマー サービスに電話したときに聞き慣れている「この通話は録音される可能性があります」という免責事項と同様の開示を要求するのは理にかなっているかもしれません。

[ 5月19日更新:ブルームバーグによると、Googleはそのような免責事項を組み込む予定とのことです。Google幹部は従業員に対し、DuplexシステムはGoogleアシスタントとして認識されると説明したと報じられています。また、ワシントン州を含む一部の地域では、Duplexは通話が録音されていることを電話の相手に知らせる予定です。]

「私たちは人間を装い、そこに特別な価値を与えています」とコールマン氏は述べた。「そして、それらの存在が話すときには、単なる機械には与えないような特別な重みを持たせています。これはロボコールの新型版のようなものですが、企業ではなく個人を対象としているのです。」

ここで疑問が湧きます。ロボット発信者がロボット応答者に電話をかけたらどうなるでしょうか?おそらく次のようなことが起こるでしょう。その場合、AIの終末を心配する必要はありません。

MITエンタープライズフォーラムの「ヒューマンマシンインターフェースとインタラクションの未来」と題されたディスカッションからの抜粋:

  • ホームズ氏は、AIシステムのミスに対する人間の責任を決定するプロセスについて疑問を呈した。「もしそのシステムが他の人間に危害を加えた場合、誰が責任を負うのでしょうか?」と彼女は問いかけた。一つの選択肢として、AIソフトウェアに組み込まれるコードにデジタル署名を義務付け、説明責任を明確化し、ハッキング対策を強化することが考えられる。もう一つの選択肢として、企業がAIプログラマーに倫理基準に関する研修を義務付けることも考えられる。
  • AIが人間特有の偏見を吸収する可能性については多くの議論がなされてきましたが、AIアシスタントは人間の行動を改善することも可能にします。例えば、AmazonはAlexaに性差別的な発言への対策を施し、「お願いします」と言えば褒められる機能を追加しました。Virtual Therapeuticsの開発ディレクター、トロンド・ニルセン氏は、この傾向がさらに進むことを期待しています。「テクノロジーを使って、どのようにすれば互いに思いやりを持つように教えることができるでしょうか?」と彼は問いかけます。
  • コールマン氏は、より賢いAIエージェントの存在はマイナスではなくプラスだと考えている。「ロボットが怖いのは、本当に賢いからではないと思います。本当に愚かだから怖いのです」と彼は言った。「ロボットが人類を滅ぼすとは思いません。むしろ、些細な、馬鹿げた事故で私たち一人ひとりの命を奪うことになると思います」