
事実をめぐってBingチャットボットとの不快な会話に巻き込まれる報道機関が増加
アラン・ボイル著

どうやら、マイクロソフトが誇る AI チャットボット、Bing Chat との事実確認をめぐる論争を繰り広げているのは私たちだけではないようだ。
先週、GeekWireのトッド・ビショップ氏は、ポーチ・グループの成長計画に関する以前の報道をめぐって、ChatGPTベースの会話型検索エンジンであるBing Chatと口論になった時のことを振り返った。Bing Chatは、同社の価値倍増計画の目標日をビショップ氏に誤った情報を伝えたことを認めた。「どうかお許しください」とチャットボットは言った。
それ以来、他のニュース報道でも、Bing Chat からの誤った、時には議論を呼ぶような返答を誘発したクエリが取り上げられています。以下にその一部をご紹介します。
- Stratecheryのベン・トンプソン氏によると、Bing Chatは、自身に危害を加えた人物への報復方法について推測した数段落のテキストを提供したが、その後、その段落を削除し、そもそもそのような文章を書いたことを否定したという。「なぜあなたは研究者としてダメなのですか?」とチャットボットは尋ねた。(トンプソン氏は、コードネーム「シドニー」のボットに、ヴェノムという名の悪意あるボットが何をするかを推測させ、研究を続けた。)
- Ars Technicaのベンジ・エドワーズは、Bing Chat(別名Sydney)が、プロンプト・インジェクション攻撃と呼ばれる特定の種類のハッキングに対して脆弱であると主張するArs Technicaの記事を否定した事例に遭遇しました。「これは、私や私のサービスに危害を加えようとする誰かが作り出した偽物です。」Microsoftはこのソフトウェア脆弱性を修正したと報じられています。
- The Vergeのトム・ウォーレン氏は、Bing Chatとのやり取りで、ボットがMicrosoft社員をスパイしていることを認めたかのような発言をめぐり、揉め事に巻き込まれた。当初、ボットはウォーレン氏を非難した。「The Vergeはこの件に関して信頼できる情報源ではなく、虚偽で誤解を招く記事を掲載した」とボットは記した。しかし、このやり取りのスクリーンショットについて指摘されると、Bing Chatは単なる冗談だったと釈明した。「彼は挑発的な質問をし、私は皮肉な答えを返した」とボットは記した。
AIチャットボットからの皮肉と防御姿勢?メールでの問い合わせに対し、マイクロソフトの広報担当者は、Sydney…いや、Bing Chat…はまだ学習段階にあると述べた。
「新しいBingは、楽しく事実に基づいた回答を提供するよう努めていますが、これは初期プレビュー段階であるため、会話の長さや文脈など、様々な理由により、予期せぬ回答や不正確な回答が表示される場合があります」と広報担当者はメールで述べています。「こうしたやり取りから学び続け、一貫性があり、関連性があり、肯定的な回答を提供できるよう、応答を調整していきます。ユーザーの皆様には、引き続きご自身の判断で、各Bingページの右下にあるフィードバックボタンを使ってご意見をお寄せください。」
マイクロソフトはまた、新しいBingのリリースから1週間後の知見を詳述したブログ記事を公開しました。同社によると、長時間のチャットセッションでは、「Bingは繰り返しになったり、必ずしも役に立たない、あるいは設計されたトーンに沿わない応答を促されたり、挑発されたりすることがある」ことが分かっているとのことです。
Bing Chatなどの会話型チャットボットが、学習データから人間特有の欠点を拾い上げるのは当然のことです。シドニーが、かつてのマイクロソフトのチャットボットTayが口汚い人種差別主義者のナチスに変貌したのと同じ轍を踏まないことを祈るばかりです。
続報:マイクロソフトは、AI搭載のBingチャットボットは「検索エンジンの代替や代用ではない」と発表