Watch

ビッグデータがもはや優先事項ではない理由と、注目すべきその他の主要なAIトレンド

ビッグデータがもはや優先事項ではない理由と、注目すべきその他の主要なAIトレンド
シアトルで開催されたマドロナ・インテリジェント・アプリケーション・サミットに出席したルイス・セゼ氏(左)とオーレン・エツィオーニ氏(右)。画面に映っているのはスタンフォード大学から電話参加したカルロス・ゲストリン氏。(マドロナ写真 / ジェイソン・レドモンド)

全く新しいコンテンツを生み出す人工知能モデルは、起業家にとって無限のチャンスを生み出しています。そしてエンジニアたちは、より少ないリソースでより多くの成果を上げる方法を学んでいます。

これらは、今週シアトルで Madrona Venture Group が主催した Intelligent Applications Summit のパネルディスカッションから得られたいくつかのポイントです。

「ビッグデータはもはや優先事項ではないと私は考えています」とスタンフォード大学のコンピュータサイエンス教授、カルロス・ゲストリン氏は述べた。「複雑な問題は少量のデータで解決できるのです。」

シアトルの機械学習スタートアップ企業Turi(2016年にアップルに買収された)の共同創業者であるゲストリン氏は、エンジニアたちは既成モデルの微調整により力を入れていると述べた。DALL-EやGPT-3といった新たな「基礎」AIモデルは、最初のプロンプトから画像やテキストを幻覚的に生成することができる。

このようなモデルは、文章を生成したり、会話を解釈したり、視覚データを評価したりする新興スタートアップの基盤となる。アレン人工知能研究所(AI2)インキュベーターのテクニカルディレクター、オーレン・エツィオーニ氏は、「これらのモデルは多くのユースケースを可能にするだろう」と述べた。しかし、バイアスを減らし、信頼性を高めるために、モデルを改良する必要もある。

「こうしたモデルの大きな課題は、幻覚作用があることです。嘘をつき、何かを生成し、作り出すのです」と、マドロナのベンチャーパートナーでもあるエツィオーニ氏は述べた。

ゲストリン氏とエツィオーニ氏は、ワシントン大学のコンピューターサイエンス教授で、マドロナ・ベンチャー・パートナーであり、シアトルのAIスタートアップ企業OctoMLのCEOでもあるルイス・セゼ氏が司会を務める談話会で講演した。

OctoMLは、Madronaが他の企業と共同でまとめたインテリジェントアプリケーションスタートアップのトップ40リストに選出されました。リストに選ばれたスタートアップは、設立以来160億ドル以上を調達しており、そのうち50億ドルは今年初めからの調達です。

議論のハイライトをもっと読むには、以下をお読みください。

新しいAIモデルがエンジニアの働き方を変える

エンジニアは、航空運賃や医療結果の予測など、個別のタスク向けに独自の技術スタックを使用して個別の AI モデルを構築することに慣れており、膨大なトレーニング データセットをモデルに事前に入力することに慣れています。

しかし現在、エンジニアはより少ない入力データを用いて、基礎モデルを精緻化し、特定のツールを構築しているとゲストリン氏は述べた。基礎モデルは膨大なデータ入力で構築されるが、そこから構築されるアプリケーションに必要なデータはより少ない。

「大規模な言語モデルと基盤モデルによって、アプリケーション開発の考え方は根本的に変わり、ビッグデータという概念を超えつつあります」とゲストリン氏は述べた。さらに、エンジニアたちは「タスクに特化した、慣れ親しんだ小規模データセットを用いて微調整を行い、真に価値のある垂直ソリューションへと導いている」と付け加えた。

エツィオーニ氏はこう付け加えた。「現在、基礎モデルについては、まず単一のモデルを構築し、その後微調整を加えることもあります。しかし、多くの作業は事前に一度で済ませています。」

AIは「民主化」された

AIツールは、専門的なスキルを持たないエンジニアにとっても利用しやすくなりつつあり、新しいツールの開発コストも低下し始めています。ゲストリン氏は、DALL-Eのようなツールを通じて一般の人々もAIツールにアクセスしやすくなっていると述べています。 

「大規模言語モデル、つまり基盤モデルによって、開発者以外の人々がAIを使って素晴らしい成果を上げられるようになったことに、私は感銘を受けています」とゲストリンは述べた。「大規模言語モデルは、プログラミングのための新たな体験を創造し、AIプログラミングなど考えもしなかった幅広い人々にAIアプリケーションを提供する機会を与えてくれます。」

偏見は依然として問題である

バイアスは常にAIモデルを悩ませてきました。そして、新しい生成型AIモデルにおいても依然として問題となっています。

ゲストリン氏は例として、王子の人種によって異なるおとぎ話の結末を生み出す物語作成ツールを挙げた。白人の王子の物語を作るように指示された場合、ツールは王子をハンサムだと表現し、王女は彼に恋をする。一方、黒人の王子の物語を作るように指示された場合、王女はショックを受ける。

「私はこのことをとても心配しています」とゲストリン氏は、AIモデルの偏見とそれが社会の偏見に影響を及ぼす能力について語った。

エツィオーニ氏は、開発中の新技術は偏見の排除により優れているだろうと述べた。

ゲストリン氏は、エンジニアは開発のあらゆる段階でこの問題を考慮する必要があると述べた。エンジニアにとって最も重要なのは、モデルをどのように評価し、データセットをどのように管理するかであると彼は述べた。

「AIと私たちの価値観のギャップを埋めることは、後処理のように最後に振りかけられる塩のようなものだと考えるのは、少し限定的な視点です」とゲストリン氏は付け加えた。

人間の入力がモデルの改善の中心となる

エツィオーニ氏は、インターネット検索エンジンを例に挙げた。初期の検索エンジンは、ユーザーが求める答えを得るために様々な検索方法を試す必要があった。Googleは、数十億件もの検索クエリからユーザーが何をクリックしたかを学習し、検索結果を洗練させることに長けていた。

「人々がこれらのエンジンにクエリを実行し、再度クエリを実行して何かを生み出すにつれて、エンジンは私たちの望むことをより良く実行できるようになるでしょう」とエツィオーニ氏は述べた。「私は、人間が介入するようになるだろうと強く信じています。しかし、それが技術の障害になることはありません。」

AIは自身の最適なユースケースを予測することもできません。「GPT-3に『新しいスタートアップを立ち上げるのに最適な用途は何ですか?』と尋ねても、役に立たない答えしか返ってきません」とエツィオーニ氏は言います。

信頼性の向上に重点を置く

「これらのモデルは素晴らしいものの、脆く、壊滅的な形で壊れてしまう可能性があります」とセゼ氏は述べた。

研究者は目標をより明確に定義し、システムを体系的にテスト・評価してフェイルセーフ性を高める方法を模索するべきだとゲストリン氏は述べた。さらに、研究者は「ソフトウェアエンジニアリングの考え方をより多く持ち込むべきだ」と付け加えた。

AI モデルの信頼性を高める方法を学ぶことは、スタンフォード大学のゲストリン氏のグループと AI2 における研究の主要な焦点です。

「GPT-3ベースのアプリが原子力発電所を稼働させるまでには、まだ非常に長い時間がかかるでしょう。そもそも、そういう技術ではないのです」とエツィオーニ氏は述べた。「だからこそ、ウェブ検索エンジンとの類似性は非常に重要だと私は考えています。人間が関与し、迅速な反復処理が可能であれば、信頼性の低い技術を非常に力強い形で活用できるのです。」