Airpods

AI の倫理: ロボットは台頭するが、我々すべてを支配することになるのか?

AI の倫理: ロボットは台頭するが、我々すべてを支配することになるのか?
人工知能の台頭は社会にとって興味深い課題を提起しており、ロボットが知的な意思決定力を持つ現代社会における倫理に関する疑問を提起している。(Bigstock Photo)

ピッツバーグ発 — デビッド・ダンクス氏は、人工知能(AI)の持つ意味について深く考えを巡らせています。カーネギーメロン大学の哲学・心理学教授であるダンクス氏は、2001年にシアトルで開催された人工知能に関する会議で、自身初の研究論文を発表しました。

それから17年後、ダンクス氏は最も興味深い(そして恐ろしいと言う人もいる)議論の中心に立っている。それは、人工知能は人類にどのような影響を与えるのか、という問題だ。

あるいは、言い換えれば、私たちはロボットの未来を恐れるべきなのでしょうか?

人工知能に対する不安を高めるには、SF作品はもちろんのこと、ニューヨーカー誌の最近の記事「 新たなロボット支配者を迎える」といった不吉なタイトルの記事を含む報道も十分にある。そして、人間と自律システムの複雑な関係を研究する専門家であるダンクス氏は、こうした不安を軽視することはない。

しかし、彼は私たちが物事を解決できると楽観視しています。AI 製品の開発プロセスに倫理を早期に導入し、テクノロジーの作成に使用された価値観に基づく決定について、より透明性を求めることで、問題を解決できると考えています。

倫理に関する議論は、コンピューター科学者のプレイブックに「『そうだね、でも人を殺しちゃだめだよ』みたいな、最後のプラグインとして追加されるべきではない」とダンクス氏は指摘する。

確かに、今日、自動化に対する懸念は高まっています。そして、その不安は現実のものです。これまで人間が担ってきた作業が、今や機械に置き換えられつつあります。最近の研究によると、今後45年以内にAIがあらゆる職種で人間を上回る可能性は50%あり、完全自動化は120年後に実現する可能性があるとのことです。小売販売など、一部の職種は20年以内に完全自動化されると予測されています。

AIをめぐる懸念を踏まえ、カーネギーメロン大学ベイカーホール1階にあるダンクス氏のオフィスで、現状を説明すべく腰を据えた。率直に言って、人間は大丈夫だという安心感が必要だった。

カーネギーメロン大学の哲学教授は、特にコンピューター科学者が倫理的問題について早期に考えれば、人間はAIとの共存を学べると考えている。(GeekWire写真/ジョン・クック)

少年のような顔をしたおおらかなオハイオ州出身のダンクスは、白髪交じりの哲学教授には似合わない。

しかし、ダンクス氏は「信頼するが検証する: 自律型兵器システムを信頼することの難しさ」や「自律システムにおけるアルゴリズムの偏り」といったタイトルの研究論文を執筆しており、AIと自動化という重要なテーマを議論するのに最適な立場にいる。その理由の一つは、近隣のカーネギーメロン大学コンピュータサイエンス学部の同僚たちが、知能ロボットの開発において世界最高峰の研究者集団であることだ。その意味で、ダンクス氏は、バラク・オバマ大統領が大統領としての最後の公の場で警告したような、来たるべき革命を最前線で見ていると言えるだろう。

自動化は新しい現象ではないが、過去 5 年間で AI は実際に「人々が気付くような形で人々の生活に影響を与え始めている」と Danks 氏は言う。

自動運転車が道路に登場し、チャットボットが登場し、人々は職を失い、AIはあらゆるところに浸透したかのようでした。

「過去3~5年でテクノロジーは十分に進歩し、人間の労働力の増強ではなく、むしろ人間の認知的労働力の代替が見られるようになってきた」と同氏は語った。

Danks はどういう意味ですか?

例えば、ワープロソフトを考えてみましょう。これは人間の認知能力を拡張する典型的な例です。なぜなら、それまで手書きで書類を作成し、それを誰かに渡してタイプしてもらうという作業は、非常に手間のかかる作業だったからです。

ワープロソフトはより良い文構造を提案したり、スペルミスを指摘したりはするかもしれないが、実際に論文を書いてくれるわけではないとダンクス氏は言う。つまり、ジャーナリスト、学者、マーケターなど、ライターは依然として頭を使う必要があるのだ。

これを、今では完全なニュース記事を作成できる新しい AI ベースのソフトウェア ツールと比較してみましょう。

「あれは人間の拡張ではなく、人間の代替のように見えます」とダンクス氏は述べた。「そして、それは人間にとってはるかに恐ろしいことだと思います」(編集者注:記録のために、このニュース記事は人間によって作成されました)。

ダンクス氏は、ワードプロセッサソフトを使っても、認知作業の一部は機械に任せられているが、「それは本当に重要な部分ではない」と認めている。

変わったのは、本当に大切なもの、つまり人間を特別なものにしていると思っていたものが、テクノロジーの進歩によって「置き換えられつつある」ことです。これは人々の身近な問題です。

しかし、AI革命は、技術の変化によって農業労働者が職を失った農業社会から工業化社会への移行に似ているのではないでしょうか。

必ずしもそうではないとダンクス氏は言う。経済学者の友人たちはしばしば反対するが、ダンクス氏は、雇用の代替はそれほど重要ではないと言う。問題はそれよりもはるかに深い。オバマ大統領が最後のインタビューで自動化について言及し、雇用とは「尊厳と、世界に自分の居場所があるという感覚」であると述べたのと同じだ。

ダンクス氏も同意見だ。AIに関して人々が本当に心配しているのは、アイデンティティの一部が置き換えられてしまうことだ。人々はロボットが人間の経験の一部を奪ってしまうのではないかと恐れている。

彼は続けた。

歴史的に見て、あなたがおっしゃった過去の革命はすべて、人間の肉体労働の代替でした。今私たちが話しているのは、人間の認知労働、つまり思考の代替です。アリストテレスの時代を振り返ると、人間は理性的な動物です。そして、例えば過去2000年から2500年の人類史を振り返ると、私たちを他の動物と区別するものは、私たちが作り上げるものにあると人々は繰り返し信じてきました。私たちは自分たちが理性的な存在だと考えています。新しい解決策を発明できると考えています。私たちは、文字通り動物界で他に類を見ないほど素晴らしい脳を持っています。それが今、脅威にさらされているのです。

私たち人類を特別な存在にしていたものが、今や置き換えられつつあります。私が一列の畝を耕すことができたという事実。それが私を特別な存在にしたわけではありません。牛ならできたからです。私がどの畝を耕すべきか判断できたという事実。それが特別なのは、動物にはできなかったからです。そこが今回の違いです。なぜなら、今回置き換えられているのは、私たちがこの惑星で私たちを唯一無二の存在にしてきたと常々考えてきた何かだからです。

AI がもたらす倫理的なジレンマに興味のある方のために、GeekWire による Danks 氏へのインタビューを詳しく紹介します。

GeekWire:テクノロジーが私たちの価値観や社会を認識できるように、どのように積極的に形作っていくのか、という考え方に興味があります。AIではどのように実現するのでしょうか?

ダンクス氏:重要な要素の一つは、教育と啓蒙活動です。つまり、技術開発者たちに、自分たちの技術に価値が組み込まれていることを受け入れてもらうことです。そして、それはそれで良いことなのです。コンピューターサイエンスの分野の人々でさえ、そして私自身も多くの開発者と接してきた経験から言うのですが、彼らは価値中立的な技術を開発しており、それがどのように使われるかが価値を生み出すと考えていることがあります。伝統的に、科学とテクノロジーの間には溝があります。科学は中立的で、世界を捉えようとしているだけです。一方、テクノロジー、つまり科学によって構築されるものには、倫理、職業倫理といったものが関わってきます。AIは歴史的に比較的価値中立的だと考えられてきたコンピューターサイエンスから生まれたため、実際には少し課題を抱えていると思います。世の中に送り出す製品を開発し始め、世界と相互作用するテクノロジーを開発していくにつれて、価値中立性を保つことが難しくなっていくと思います。

ダンクス氏:「しかし、自動運転車を開発しようとする人が直面する、もっと平凡ながらもより重要な倫理的問題があります。あなたの車は…常に法律に従うべきでしょうか、それとも常に可能な限り安全運転をすべきでしょうか? 例えば、周りの車が時速45マイルで走っている場合、最も安全な運転速度は約40マイルです。これは、周囲の交通の流れより少し遅い速度です。もしこれが時速25マイルの制限速度区域で起こったらどうなるでしょうか? シアトルはどうか分かりませんが、ここピッツバーグでは、周囲の交通の流れが制限速度をはるかに上回ることがよく
あります。設計者として、車は安全性の低い時速25マイルで走るか、それとも法律違反となる時速40マイルで走るかという選択肢があります。これは倫理的な課題です。価値観の中で何を優先するかという問題です。これは、極端に奇妙なケースを必要とする問題ではなく、設計者として、基本的に最適化される機能を与える際に決定しなければならない問題です。自動運転車の計画手順。1ブロック進むには、これを解かなければなりませんでした…。こうした疑問は避けられないので、尋ねても構いません。」

GeekWire:AIベースのシステムの設計自体が大変なのに、倫理的な問題については、長きにわたって議論が続く可能性があります。人によって社会的な価値観も違えば、この問題に対する見方も異なります。

ダンクス氏:その通りです。まずは、人々にこのことを認識してもらうことです。次に、大学やシンクタンクなど、あらゆる場所で、こうした問題を解決しようと、取り組んでいる人々や手法を認識することです。倫理は推測ではありません。倫理とは、寮の部屋で真夜中にビールを何杯か飲んだ後に起こることだと考える人もいるかもしれません。しかし、私たちには倫理について考える方法があります。人々が真剣に考え、合意に至る多くの事柄があります。透明性を高める方法も、低くする方法もあります。企業は、自社システムにどのような価値を投入しているかについて透明性を保ちつつ、企業独自の機密情報である技術的な詳細を明かすことなく、透明性を保つことができます。もちろん、Uber(Advanced Technologies Group)は、基盤となるソースコードを公開したくはありませんが、「価値関数への入力として提供される要素は次のとおりです」といったように説明することはできるでしょう。

GeekWire : 彼らはそんなことをしましたか?

ダンクス:「いいえ、そうではありません。」

GeekWire : なぜダメなの?

ダンクス氏:「義務付けられていないし、彼らもそうしたくないと思うからです…。今のところ、規制はほとんどありません。これらの情報を開示する必要もありませんし、何をしているのか言う必要もありません…。おっしゃる通り、選択を迫られるのは当然です。それはそれで構いません。メニューを作るようなものです。レストランでメニューをどう作るかによって、人々が特定の商品を購入する傾向が変わってしまうことは周知の事実です。メニューは必要です。ただ、その事実を認めるだけでいいのです。もし、人々に利益をもたらす商品を買わせるため、あるいはより健康的な商品を買わせるために、どのようにバイアスをかけているのか気になるなら、この分野の研究者に相談してください。心理学者に相談してください。
それはそれで構いませんが、賢明な方法で行うようにしてください…。企業にとって多くの分野で何らかの規制措置がなければ、このような状況が実現すると考えるのはおそらくユートピア的な話でしょう。しかし…。様々な企業が、自社の技術がもたらす可能性のある倫理的問題について考えるために、人々を巻き込み始めています。そして、それを先取りしようとしています。」

ダンクス氏:「長期的には、それが企業の成功にもつながると確信しています。テクノロジーが人々の期待通りに機能し、安心して使い、信頼されれば、採用率は高まります。そうすれば、人々は時折の障害を許容できるようになります。テクノロジーに不具合が生じた場合(よくあることですが)、結局のところ、ユーザーがそのテクノロジーをどれだけ信頼しているかが問題になります。信頼とは、信頼性以上のものです。」

GeekWire 倫理的な方法で AI を実行することの見通しについて悲観的な人たちに何と言いますか?

ダンクス氏:「歴史は、どちらか一方だけを選ぶことはできないと教えてくれていると思います…。私は究極的には楽観主義者ですが、結局のところ、何とかやり遂げるしかないと考える現実主義者でもあると思います。重要なのは、技術開発に携わる人々と関わり、ゼロサムゲームではないことを理解してもらうことです。倫理的か利益的かは互いに相反するものであり、倫理的か迅速かは互いに相反するものでもありません。こうした議論におけるレトリックは、しばしばこのどちらかに陥っているように思います。つまり、規制を一切行わず、すべてを自由市場に委ねるか、完全にトップダウンで進めるかのどちらかです。ですから、この二元論的な考え方は間違いです…。時にはこうした緊張関係が生じることもありますが、こうした対立的な二元論、ゼロサムゲーム的なレトリックを乗り越えることが、楽観的な目標を実現するための第一歩だと考えています。」

GeekWire : どうすれば人々はこれらのテクノロジーに慣れることができるのでしょうか?

ダンクス氏:「透明なAIや説明可能なAIに向けた動きは活発ですが、少し的外れだと思います。私たちが目指すべき正しい目標は、信頼できるAIです。説明可能性と透明性は信頼できるAIへの道の一つかもしれませんが、唯一の道ではありません。完璧な道でもありません。信頼するために理解する必要はありません。私は自分の車の仕組みは理解していませんが、多くの点で信頼しています。一方、説明可能なAIについて考えてみましょう。これは架空の例ですが、HALは説明可能なAIです。デイブに、なぜポッドベイのドアを開けないのか、あるいは正確な言葉は何であれ、その理由をどのように説明できるでしょうか。誰もがHALを信頼すべきだという意味ではありません。説明可能性は信頼への道の一つではありますが、保証ではありません。本当に重要なのは信頼だと思います。システムを信頼する、つまり、システムが自分の期待通りに、あるいは期待通りに機能すると信頼するということです。信頼は多次元的なものなので難しいものです。私が自分の車を信頼する方法は、私が妻を信頼する方法…それは同じ種類の信頼ではありません。

社会心理学や組織行動学の視点から見ると、人間の信頼の本質、組織における信頼の仕組み、人と人との関係における信頼の働き、そして人々がテクノロジーを信頼するようになる過程について、過去40年間にわたり多くの研究が行われてきたことが分かります。つまり、私たちは実際に、活用できる豊富な文献を持っているということです。まさにそれが問題の核心だと思います。テクノロジーを信頼するなら、たとえ理解できなくても大丈夫です。多少の不具合があっても構いません。それでも使い続けます。私たちは、その状況を乗り越えようと努力します。信頼できないなら、たとえ理解できても、信頼しない、使いたくないと思うでしょう。…私たちが本当に大切にしているのは信頼だと思います。現在、透明性と説明可能性ばかりに焦点が当てられていますが、実は私たちにとって本当に大切なものから私たちを遠ざけているのではないかと心配しています。

GeekWire:信頼に関する話を最近の出来事に持ち込むと、今日の大きなテーマは、Apple、Google、Facebook、Microsoft、AmazonといったAI分野のリーダー企業に対する不信感です。これらの大企業への信頼は低下しているように見えます。私たちはどうなるのでしょうか?

ダンクス氏:「それは難しい状況につながります。企業にとって、それがビジネスモデルとして適切かどうか、時々疑問に思います。ある意味、Googleの創業当初の理念である「悪事を働くな」に立ち返り、基本的には「常に信頼できる存在であれ…私たちが何をしようと、人々は私たちを信頼してくれるだろう」と宣言することになるのです。それがアルゴリズムの開示を意味するのか、外部の第三者機関に監査を依頼することを意味するのか…

多くのテクノロジー企業で、ユーザーを自社のターゲットオーディエンスとして捉える考え方から、ユーザーを他者に提供するためのデータとして捉える考え方へと変化が起こっています。この変化は多くの場合、まさにそこで起こっているのではないでしょうか。なぜなら…人々はこう言うからです。「ちょっと待ってください。あなたたちが助けようとしているのは私たちではありません。私たちから何かを得て、それを他者に提供しようとしているのです」。外部の人間としての私の視点から見ると、Googleへの不信感の多くは、Googleが自分たちを助けようとしていないことに人々が気づき始めたことに端を発していると思います。Googleは、直接的か間接的かを問わず、他者に販売するために情報を収集しようとしていたのです。Amazonでも同じようなことが起こっています。人々は「ちょっと待ってください。Amazonは人によって価格が違うのでは?なぜだろう?」と思うでしょう。なぜなら、Amazonは実際には、私が欲しいものを安く早く手に入れるのを手伝おうとしているわけではないからです。

ですから、私も同感です。不信感は非常に大きいです。もし私がCEOたちにアドバイスをするなら、「本当に長く生き残りたいなら、どうすれば人々に信頼してもらえるかを真剣に考える必要がある」と言うでしょう。実際、Appleは歴史的に見て、この点で長けていました。私の見解では、ここ数年のAppleの技術はそれほど良くなく、むしろその流れに乗っていると言えるかもしれません…。皆がAppleを信頼しているんです。すべてうまく機能しているんですから。なぜ私の両親は数年前にAppleのコンピューターに切り替えたのでしょうか?それは、一つには、私が彼らに言ったように、Appleはとにかくうまく機能するからなんです。きっとうまく機能すると信じていいんですよ。」

GeekWire:仕事とAIについて少しお話しいただけますか?今回の議論の大きな部分を占めています。

ダンクス氏:「これは大きな話です。まず最初に言っておきたいのは、私は経済学の訓練を受けていないということです。」

GeekWire:AIを開発している企業には、雇用が確実に提供される倫理的責任があるのでしょうか?

ダンクス氏:「議論の多くは、測定可能な経済的影響に頼りがちです。しかし、多くの場合、重大な心理的影響もあることを認識することが重要だと思います。もし、教授としての私の職を奪うようなAIが開発されたら、私は単に経済的な損失を被るだけでなく、真の心理的損失を被るでしょう。私のアイデンティティの一部は教授であること…しばしば見落とされがちなものの一つ、見落とされがちなものの一つは、こうした心理的コストだと思います。そして、こうした心理的コストはより広範な社会的コストを伴います。地域社会の中に、アイデンティティの喪失、あるいはアイデンティティの一部の喪失を感じている人々がいる場合、それは社会的な影響を与えるでしょう。また、それは時に地域社会を定義する要素でもあります…製鉄所が閉鎖されたときのピッツバーグの心理的・社会的コストを考えてみてください。ピッツバーグ出身であることの一部でした。あなたは製鉄コミュニティの一員でしたが、突然、その町はもはやそれを失いました。私たちが認識すべきことの一つは、コストは単に…経済的なものだけでなく、アイデンティティ、コミュニティのアイデンティティ、個人のアイデンティティ、私たちが何者であるかに関わるものです。アメリカや西側資本主義国では、アイデンティティの大部分が仕事と結びついているのが現実です。

ダンクス:確かに、私がこれまで聞いた(AIに関する)プレゼンテーションや見た資料はすべて、AIをいかにコスト削減に活用できるかという枠組みで説明されていました。福利厚生や提供できるサービスを増やすためにAIをいかに活用できるかという枠組みではありませんでした。コストを現状維持しつつ生産性を向上させる方法ではなく、いかにして生産性を現状維持しつつコストを削減するかという枠組みでした。つまり、「生産性を現状維持しつつコストを削減する」という枠組みで説明される時点で、すでに一種の興味深いフレーミング効果が生まれているのです。これは雇用喪失につながるでしょう。おそらく絶望的な思考実験かもしれませんが、もしAI関連企業がCEOとの会議に出席し、「コストを現状維持しつつ生産性を向上させる方法をお教えします」と言ったら、状況はどれほど変わるだろうかと想像しています。

ダンクス氏:「CEOとして、コストが変わらないということは、コストが変わらないから従業員を解雇しないということです。あるいは、数人を解雇せざるを得ないとしても、大規模な雇用喪失には至らない、という状況です。すでに、すべてがコスト削減によって実現されているという枠組みができあがっています…。これは倫理的に中立な枠組みではありません。こうしたことを売り込むテクノロジー企業のコンサルタントたちは、生産性を同じに保ちながらコストを削減するという、倫理的に負荷をかける枠組みを使っていることに気づいていない、というか、本当に気づいていないと思います。企業には、利益の最大化を超えた社会的責任があると私は考えています。これは必ずしも企業の間で広く受け入れられている考え方ではありませんし、現在の政治的、規制的な社会環境において、企業がそれを認識する義務はないことは理解しています。誰も企業に認識を強制していませんし、認識しないように強制する人もいないでしょう。私たちは今、困難な状況にあると思います…。企業は、その影響を認識するべきです。彼らの選択は自由です。また、そうすることを強制する規制がないことも認識しています。こうしたケースでは、西洋資本主義の時代精神を変える以外に、ある種のよりトップダウン的な圧力をかけることが唯一の対応策だと私は考えています。例えば、「100人の雇用を失わせるような技術を導入した場合、当社は2年間かけて段階的に人員削減を行うことを約束します。あるいは、追加利益の半分を2年間、解雇された人々に提供し、彼らの移行を円滑に進めることを約束します。」といった株主主導の取り組みでも良いでしょう。

ダンクス氏:「つまり、株主主導のイニシアチブによって企業の手を縛るという方法があります。すると、利益を得るはずの人々が立ち上がり、『ちょっと待ってください。いや、もっと利益を得られることは分かっています。でも、それは要りません』と言うのです。過去にも似たようなことがありました。例えば、南アフリカのアパルトヘイト政策への対応、ダイベストメント運動などです。これは、人々が『もっと儲かる可能性は分かっていますが、そうするのは道徳的に間違っていると思います。だから、道徳的に正しいことをするために、自発的に少しだけ利益を減らします』と言った事例です。様々な社会的責任投資信託で、例えば石油、ガス、タバコといった銘柄には投資しないといった動きがありました。これが一つの解決策だと思います。」