
ポール・アレンのAIをより賢明にする計画は、私たち人間をより安全に保つことを目指している
アラン・ボイル著

マイクロソフトの共同創業者ポール・アレンが人工知能プログラムにさらなる常識を与えるために新たに立ち上げた1億2500万ドルの取り組みには、より身近なもうひとつの目標、つまりAIを人間にとってより安全なものにするという目標がある。
シアトルに拠点を置くアレン人工知能研究所のCEO、オーレン・エツィオーニ氏は、プロジェクト・アレクサンドリアに関するGeekWireとの独占インタビューでこのように説明した。
続きを読む:ポール・アレンが新たな「常識AI」プロジェクトに1億2500万ドルを投資
Alexandria は、常識 AI のベンチマークを設定し、人間が常識をどのように使用しているかを学習するためのクラウドソーシング手法を開発し、常識に関する知識のリポジトリを構築し、その知識を使用して機械翻訳からコンピューター ビジョンに至るまでのさまざまなタスクに対応するより優れた AI ツールを構築するための長期的な研究活動です。
このプロジェクトは、当時人類の知識の最高の宝庫であった古代エジプトのアレクサンドリア図書館にちなんで名付けられました。この図書館は火災に見舞われましたが、エツィオーニ氏の研究所(AI2)は、AIアレクサンドリアには同じ運命が降りかからないことを願っています。
AIプロジェクトの多くは、チェス、ポーカー、囲碁をマスターする方法や、車を路上で停止させる方法といった、狭い範囲の知識に焦点を当ててきました。一方、アレクサンドリア計画は、より一般的な問いに焦点を当てます。「この戸口をゾウは通れるか?」…「ゴミ箱には通常何が入っているか?」…「この行動は人間にとって有害か?」といった問いです。

AIシステムをより賢くするというアイデアは、映画『ターミネーター』でよく描かれているように、ロボットが世界を征服するという恐怖をしばしば呼び起こします。しかしエツィオーニ氏は、ハリウッド映画のような悪夢を回避するためには、常識的なAIの開発が不可欠だと述べています。
「AIシステムが、何が害なのかを知らないのに、アシモフの第一法則『害を与えない』のように、害を与えないことをどうして期待できるのか?」と彼は言う。
エツィオーニ氏は、プロジェクト・アレクサンドリアを通じて確立される常識的なベンチマークはオープンソースになるが、このプロジェクトが収益性の高いAIスタートアップ企業やコラボレーションのアイデアを生み出すことも期待していると述べた。
初期の機会の1つは、国防総省の国防高等研究計画局(DARPA)で生まれる可能性が高い。同局は、「マシン・コモン・センス」と呼ぶプログラムに、来年度中に620万ドルを費やすことを提案している。
「私たちもその一翼を担いたいのです」とエツィオーニ氏は言った。まさにその通りだ。
本日のQ&Aから抜粋した内容をいくつかご紹介します。インタビュー全編はSoundCloudのオーディオクリップをご覧ください。
GeekWire: Project Alexandria について教えてください。なぜこれが AI2 にとって新しい取り組みになったのでしょうか?
オレン・エツィオーニ: 「これはまさに私たちの最も広範かつ野心的な取り組みです。ご存知の通り、私たちは科学検索のSemantic Scholarや、AIスタートアップを支援するインキュベーターなど、様々なプロジェクトを展開しています。皆さんもお分かりでしょう。こうした多くのプロジェクトを通して学んだことの一つは、多くのシステムが常識の欠如によって脆弱になっているということです。
「『常識的な知識とは具体的に何を意味するのか?』と疑問に思う方もいるかもしれません。私たちが考え出した最良の定義は、常識的な知識とは、事実上すべての人が持っているが、事実上すべての機械が持っていない知識である、ということです。私たちは、それが次世代のAIシステムを構築する上で不可欠であることに気づきました。」
Q: あなたは以前、汎用人工知能(AGI)について、そして平均的な小学3年生でも、AIシステムにできるとは夢にも思わなかったことができるという考えについてお話しされていました。これはまさにあなたがおっしゃっていることでしょうか?もしそうなら、これは私たちが懸念すべきことなのでしょうか?以前、あなたはAGIの仕組みをまだ十分に理解していないので、ターミネーターが襲い掛かってくる心配はないとおっしゃっていましたが。
A: まず第一に、はい、これはその方向への一歩です。しかし、AGIの全体像からは程遠いです。現状では、非常に限定された知能しか持ち合わせていません。私は彼らをAIのサヴァントと呼んでいます。彼らは囲碁のようなことを非常に上手にこなすことができますが、それぞれをゼロから再構築し、再訓練する必要があります。
「より脆くなく、より堅牢でありながら、より幅広いシステムへと進化するには、こうした背景知識、つまり常識的な知識が必要です。これは、AGIの50%や80%の実現に近づいているという意味ではありません。
これは非常に野心的な長期研究プロジェクトです。実際、私たちが今まさに取り組んでいるのは、この分野の進捗状況を経験的に評価するためのベンチマークを構築することです。これは非常に刺激的なプロジェクトであり、多くのコミュニティが教師ありディープラーニング手法の次の段階についてまだ検討している中で、ポール・アレンのビジョンを示すものだと考えています。しかし、AGIに関しては、このプロジェクトが大きな変化をもたらすわけではありません。
AIの安全性というテーマ、つまり最終的に私たちが構築するであろうシステムが人間に危害を加えないことをどう保証するかという点について考える時、懸念事項の一つは、AIシステムがそもそも「危害」とは何かを理解しているかどうかです。AIシステムが「危害」とは何かを理解していないのに、アシモフの第一法則「害を与えない」のように、人間に危害を加えないことをAIシステムが期待できるでしょうか?
「そうですね、害悪という概念は非常に複雑で曖昧で、理解するには多くの常識が必要です。これは『オン・オフ』の問題ではありませんが、AIシステムに常識的な機能をどんどん組み込むことができれば、AIシステムは何が有害で何がそうでないかを理解できるようになるため、より安全なシステムへと一歩前進することになります。」