Vision

AIをどう制御するか?科学者は、薬物や飛行機のようにボットを規制する必要があると考えている

AIをどう制御するか?科学者は、薬物や飛行機のようにボットを規制する必要があると考えている
認知科学者ゲイリー・マーカス氏(左)とSF作家テッド・チャン氏が、シアトルで最近開催されたタウンホールイベントで、人工知能の急速な進歩がもたらす課題について議論した。(GeekWire Photo / アラン・ボイル)

人工知能のリスクは、さらなる規制が必要となるほど高まっているのだろうか?認知科学者のゲイリー・マーカス氏は、連邦政府、あるいは国際機関が介入する必要があると主張している。

食品医薬品局や連邦航空局がモデルを提供できるだろうと、マーカス氏は先週シアトルのタウンホールでシアトルのSF作家テッド・チャン氏との談話の中で述べた。

「かなりのリスクを伴う新しい形態のAIを導入する場合には、FDAのような承認プロセスを導入すべきだと思います」とマーカス氏は述べた。「それを規制し、『コストはいくら? メリットはいくら? 社会へのメリットは本当にコストを上回るのか?』と問うための何らかの方法が必要です」

マーカス氏は、ソフトウェア企業は、新しい種類の生成AIに対する規制当局の承認を得ることに加え、AIツールのパフォーマンスを評価するために外部の監査手続きを受ける必要があると述べた。

「例えば、大規模な言語モデルが採用や面接の選考に利用されていることは周知の事実です。そして、それらにはバイアスが含まれていることも分かっています」と彼は述べた。「しかし、実際にどの程度のバイアスがかかっているのかを監査で調べる方法さえありません。企業が社会に重大な損害を与えた場合、そのコストの一部を今すぐに企業が負担できるよう、責任法を制定したいと考えています。」

AIの安全性は、マーカス氏がニューヨーク大学名誉教授として、そして最近出版された著書『Taming Silicon Valley(シリコンバレーを征服する)』で研究している主要なテーマの一つです。本書とタウンホールイベントにおいて、マーカス氏は盗作、幻覚、偽情報やディープフェイク、透明性の欠如といった、生成AIを取り巻く厄介な問題を詳細に検証しました。

AI活用をリードする企業は、安全性の問題にも配慮していると主張しています。例えば4月には、Microsoft、OpenAI、Alphabet、Amazon Web Servicesといった大手テクノロジー企業のCEOが、連邦政府に対し重要インフラの保護方法について助言することを使命とするAIの安全性とセキュリティに関する委員会に加わりました。

しかしマーカス氏は、AI分野には科学者も関与する独立した監督が必要だと主張した。「政府のリーダーは企業のトップと頻繁に会合を持ちますが、そこに独立した科学者はいません」と彼は述べた。「そのため、大企業が自らを規制する、いわゆる「規制の虜(りゅうこつ)」状態になってしまうのです」

マーカス氏は例として、AI をオープンソースにするべきかどうかという議論を挙げ、Meta の CEO であるマーク・ザッカーバーグ氏は賛成している一方、「AI のゴッドファーザー」であるノーベル賞受賞者のジェフリー・ヒントン氏は反対していると述べた。

「マーク・ザッカーバーグとMetaの最高AI責任者であるヤン・ルカンが決めるべきことではありません。しかし、まさにそれが起こりました。…彼らは私たち全員の代わりに決定を下し、私たちを潜在的に危険にさらしたのです」とマーカス氏は述べた。「つまり、彼らが発表したAI関連の技術はすべて、例えば中国で積極的に利用されているということです。もし私たちが彼らと対立していることを認めるなら、それはおそらく良い考えではないでしょう。」

マーカス氏は連邦 AI 管理局、あるいは国際民間 AI 組織の設立を呼びかけました。

「ここでの良いモデルは民間航空会社です。民間航空会社は非常に安全で、高度3万フィートで空飛ぶバスに乗客を乗せれば、自家用車に乗っているよりもはるかに安全です」と彼は述べた。「それは、多層的な監視体制があるからです。飛行機の設計、試験、整備、事故調査などについて規制があります。AIにも同じような規制が必要になるでしょう」

しかし、実現するだろうか?マーカス氏は現在の政治動向について現実的な見方をしている。「政権交代を考えると、近い将来にこうした計画が実現する可能性は低いように思える」と彼は述べた。

マーカス氏は著書の中で、生成型AIのボイコットを提案しているが、この考えはチアン氏から懐疑的な意見を招いた。

「マイクロソフトは、メモ帳やペイントにまでAIを搭載しています」と、ニューヨーカー誌でAIについて執筆しているチアン氏は語る。「AIを搭載していない製品は使いにくくなるでしょうし、子供たちが宿題をするためにAIを使うのをやめさせるのも非常に難しくなるでしょう。」

マーカス氏はボイコットは「大変な作業」になるだろうと認めた。

「フェアトレードコーヒーのようなものに例えてみましょう。リストを作って、『ほら、これらの商品は良いですよ。これはいいですよ。使ってください』と言うようなものです」と彼は言った。「例えば、画像の生成AIは、その基盤となるすべての素材を適切にライセンスしている企業からのみ利用すべきです。消費者からの圧力が強ければ、1、2社はそうしてくれるかもしれません」

マーカス氏の見解では、アメリカがAIに関する適切な公共政策を実現する唯一の方法は、国民の圧力をかけることだ。「AIに関しては、気候変動で見てきたのと似た状況に直面しています。つまり、国民が本当に本当に憤慨しない限り、政府は何もしないということです」と彼は述べた。「そして、これらの問題に対処するには、AI政策について本当に憤慨する必要があるかもしれません。」

講演のその他のハイライト:

  • マーカス氏は、ChatGPTのような大規模言語モデルのディープラーニング曲線が平坦化しつつあると考えている。「かつては、こうしたシステムを改善するために、インターネットのより大きな部分をモデル学習に使うという手法が使われていました」と彼は言う。「しかし、今ではその割合は100%に非常に近く、それを倍にしてインターネットの200%を得ることはできません。そんな状況は実際には存在しないので、おそらく継続するにはデータが足りないのでしょう。」
  • チアン氏もマーカス氏の意見に同意し、AIは材料科学やバイオメディカルといった分野、例えばノーベル賞に値するタンパク質設計研究において最も役立つだろうと述べた。「これらの分野は可能性空間が非常に大きいですが、かなり明確に定義されており、人間よりも優れたソフトウェアでそれらの探索が可能です」とチアン氏は述べた。「現実世界についての推論といった分野で大きな進歩を遂げなくても、AIがこれらの分野で非常に優れた成果を上げられるようになることは間違いありません」
  • マーカス氏は、OpenAIが監視アプリケーションへと押し進められていると考えている。「Copilotのような製品では、十分な収益を上げられないと思います」と彼は述べた。「もし彼らの市場ニッチがFacebookの市場、つまりユーザーのデータを販売する、いわば監視のようなものに似てきたら、それほどうまく機能する必要はないでしょう。ただデータを収集できればそれでいいのです。」