
解説:OpenAIのGPT-4には修正可能な制限と修正不可能な制限がある

編集者注: OpenAIは、チャットボット「ChatGPT」のリリースから4か月後、火曜日に最新の人工知能技術「GPT-4」を発表しました。アレンAI研究所の元CEO、 AI2インキュベータのテクニカルディレクター、ワシントン大学名誉教授のオーレン・エツィオーニ氏が、その見解を述べています。
GPT-4が到着しました。
GPT-4は、既に世界中で旋風を巻き起こしているChatGPTよりもはるかに包括的で強力です。患者の診断、ソフトウェアの開発、チェスのプレイ、論文の執筆など、様々な用途に利用できます。
先月、OpenAIのCEOサム・アルトマン氏は「ムーアの法則の新しいバージョンが間もなく始まるかもしれない。宇宙の知能の量は18か月ごとに倍増する」とツイートした。
今後数年間で、GPT-4とその類似モデルが私たちの情報経済、雇用、教育、政治、そして知的で創造的であることの意味に対する理解にまで影響を与えるのを目にすることになるでしょう。GPTモデルをインターネットのぼやけたJPEG画像と呼ぶのは、その現在の能力と将来の可能性の両方を過小評価していると言えるでしょう。
しかし、テクノロジーには「ファミリー DNA」に固有のいくつかの制限があることを指摘することが重要です。
GPT-4 には表面的な問題がいくつかあります。
- それは、不快なものや的外れなものにならないようにするために、人間が作った一連の広範な「ガードレール」によって制限されています。
- 知識はリアルタイムで更新されません。
- 英語以外の言語の習得には限界があります。
- オーディオやビデオは分析しません。
- それでも、計算機なら回避できる計算エラーが発生します。
しかし、これらの問題はどれもこのアプローチに固有のものではありません。これらの問題に固執する人には、「私の指を噛まないで、私が指しているところを見てください」と言いたいところです。これらの問題はすべて、GPT-5、あるいはOpenAIや競合他社の後継バージョンで解決されるでしょう。
さらに厄介なのは、GPT-4が依然として信頼できないという事実です。ChatGPTと同様に、GPT-4は「幻覚」を起こし、事実を捏造し、さらには捏造した情報源でその事実を裏付けます。さらに悪いことに、GPT-4は常習的な嘘つきのような自信過剰さでそれを行います。
ChatGPTと同様に、同じ問題について複数の質問をされた場合、応答に一貫性がないことがあります。これは、根底にある信念や価値観を持たず、学習データと内部で数学的に定式化された目的の曖昧な組み合わせに基づいて人間の入力に応答するためです。
これらの理由から、機械学習には広範なバイアスも存在します。慎重な検証なしに機械学習の応答を信頼するのは無謀と言えるでしょう。GitHub CoPilotと呼ばれるGPTスタイルのツールを使用してソフトウェアコードのスニペットを作成する人間のプログラマーは、手書きのプログラムに組み込む前に、ソフトウェアを慎重にレビューし、テストします。しかし、この技術は世代を重ねるごとにエラーが減少しており、この傾向は今後も続くと予想されます。
この急速な進歩と前例のない成功のために、GPT-4 と同様の AI テクノロジー (「基礎モデル」または「生成 AI」と呼ばれることもある) の全範囲には、近い将来に克服できない根本的な制限があることを強調することが重要です。
人間とは異なり、GPTモデルには身体がありません。モデルは入力として間接的な情報に依存しており、その情報は歪んでいたり不完全であったりする可能性があります。人間とは異なり、GPTモデルは共感をシミュレートすることはできますが、実際に共感を感じることはありません。シミュレートされた共感には確かに用途がありますが(カンザス州の田舎で午前2時に泣きたいティーンエイジャーを想像してみてください)、それは本物の共感ではありません。
GPTモデルは、その応答において無限の創造性と驚きに満ちているように見えるかもしれませんが、複雑なアーティファクトを設計することはできません。おそらく、これを理解する最も簡単な方法は、「GPT-4のどのコンポーネントが生成モデルによって設計されたのか」という疑問を投げかけることです。AIの最先端技術は、GPT-4がGoogleのBERTやAI2のELMoなど、人間が設計したモデルや手法をスケーリングし、改良することで構築されたことを示しています。Steven Wolfram氏は、この技術の分かりやすい概要をこちらで提供しています。
細部はさておき、この技術が自ら設計できる段階には程遠いことは明らかです。さらに、チャットボットを設計するには、まず目的、基盤となるトレーニングデータ、技術的アプローチ、具体的なサブゴールなどを策定する必要があります。これらの段階には、実験と反復作業が不可欠です。
関連するリソースを確保し、適切な人材を雇用するなど、他にも多くのことが必要です。もちろん、これらはすべてOpenAIの優秀な人材によって行われました。私がMIT Technology Reviewで主張したように、このような取り組みを成功裏に計画し、実行する能力は、依然として人間にしか備わっていないのです。
最も重要なのは、GPTモデルは私たちの指示に従って動作するツールであるということです。非常に強力ではありますが、自律的ではありません。私たちの指示に応答するのです。
自動運転車との類似性を考えてみましょう。今後数年間で、自動運転車はより多用途になり、安全性も向上するでしょう。しかし、私たちがどこへ向かうのかは車が決めるわけではありません。その決定権は人間にあります。同様に、GPTモデルをどのように活用するか、啓蒙活動に活用するか、誤情報に活用するかは私たち次第です。
偉大なパブロ・ピカソは、「コンピューターは役に立たない。ただ答えをくれるだけだ」という有名な言葉を残しています。
GPTモデルは決して役に立たないものではありませんが、根本的な疑問を提起し、その答えを評価するのは依然として私たちです。この状況はすぐには変わりません。