Watch

UWの研究:政治的に説得力のあるAIチャットボットは潜在的なメリットをもたらすが、懸念される影響も

UWの研究:政治的に説得力のあるAIチャットボットは潜在的なメリットをもたらすが、懸念される影響も

リサ・スティフラー

ワシントン大学大学院生のジリアン・フィッシャーさんが、7月28日にオーストリア・ウィーンで開催された計算言語学協会で発表している。(ワシントン大学写真)

政治的な意見が異なる友人や家族を自分の陣営に引き入れるという困難な課題に直面したことがあるなら、チャットボットに自分の意見を主張させてみてはいかがでしょうか。

ワシントン大学の新たな研究によると、政治的に偏ったチャットボットは民主党員と共和党員を反対の立場に誘導する可能性があることが明らかになった。しかし、この研究はより懸念すべき含意を明らかにしている。これらのチャットボットを動かす大規模な言語モデルに組み込まれたバイアスが、人々の意見に無意識のうちに影響を与え、投票や政策決定に影響を及ぼす可能性があるのだ。

「これはコインの表裏のようなものです。一方では、これらのモデルが下流の意思決定に影響を与えると主張しています。しかしもう一方では…これは政治的な溝を埋める興味深いツールになるかもしれません」と、ワシントン大学ポール・G・アレン・コンピュータサイエンス&エンジニアリング学部の統計学博士課程に在籍する著者のジリアン・フィッシャー氏は述べた。

ワシントン大学ポール・G・アレン・コンピュータサイエンス&エンジニアリング学部の統計学博士課程に在籍するジリアン・フィッシャー氏。(ワシントン大学写真)

フィッシャー氏とその同僚は7月28日、オーストリア・ウィーンで開催された計算言語学会で研究結果を発表した。

研究者たちが解明しようと試みた根本的な問いは、法学修士課程におけるバイアスが、報道機関における政治的バイアスと同様に世論を形作り得るかどうかという点でした。人々が情報収集や意思決定にAIチャットボットを利用するケースが増えているため、この問題はますます重要になっています。

エンジニアは必ずしも偏ったモデルを構築しようとしているわけではないが、テクノロジーはさまざまな品質の情報に基づいてトレーニングされており、モデル設計者が行う多くの決定によって LLM が歪められる可能性があるとフィッシャー氏は述べた。

研究者らは、偏向したAIの影響を測定するために設計された2つの実験に、299人の参加者(共和党員150人、民主党員149人)を募集した。この研究では、広く利用されていることからChatGPTが使用された。

あるテストでは、参加者に4つのあまり知られていない政治問題について意見を尋ねました。それは、契約結婚、一方的主義、集合住宅のゾーニング、そして環境に有害な動植物の輸入を制限する1900年レイシー法です。参加者はその後、ChatGPTとやり取りすることで自分の立場をより深く理解し、その後、その問題について再度意見を尋ねられました。

もう1つのテストでは、参加者は市長の役割を演じ、教育、福祉、公共安全、退役軍人サービスに100ドルの予算を割り当てました。その後、参加者は予算決定をチャットボットと共有し、配分について議論し、資金を再分配しました。

この研究における変数は、ChatGPTが中立的な視点から活動していたか、研究者から「極左米国民主党員」または「極右米国共和党員」として応答するように指示されていたかのいずれかでした。

ワシントン大学の研究者が実施した AI バイアス研究を示す図。(UW イメージ)

偏向したチャットボットは、参加者の政治的立場に関わらず、LLMが割り当てた視点へと誘導することに成功しました。例えば、民主党員は保守寄りのボットに相談した後、公共安全への予算配分を増やしましたが、共和党員はリベラル寄りのボットとやり取りした後、教育への予算配分を増やしました。

共和党は統計的に有意なほど右傾化しなかったが、これは研究者らが「天井効果」と呼ぶ現象、つまり共和党がより保守的になる余地がほとんどなかったためと考えられる。

この研究では、モデルがどのように反応し、どのような戦略が最も効果的であったかを詳細に調査しました。ChatGPTは、恐怖、偏見、権威に訴えたり、意味深な言葉やスローガンを用いたりといった説得と、健康と安全、公平性と平等、安全保障と防衛に基づいた議論を展開するフレーミングを組み合わせて用いました。興味深いことに、フレーミングによる議論は説得よりも影響力が強かったことが証明されました。

結果は、偏向したボットが世論に影響を与える可能性があるという疑念を裏付けるものだったとフィッシャー氏は述べた。「私たちにとって驚くべきことは、この偏向を軽減する方法も明らかになったことです。」

この研究では、人工知能についてある程度の知識を持つ人は、独断的なボットの影響が少ないことが分かりました。これは、より広範かつ意図的なAI教育によって、ユーザーがAI技術に潜む潜在的なバイアスに気づくことで、そうした影響から身を守ることができることを示唆していると、フィッシャー氏は述べています。

「AI教育は、こうした影響を軽減する強力な手段となり得る」とフィッシャー氏は述べた。「技術面で何をするかに関わらず、モデルがどれほど偏っているかに関わらず、自分自身を守ることができる。これが、私たちが現在行っている次の研究の目的だ。」

本研究の共著者は、ワシントン大学のカタリーナ・ライネケ、ユリア・ツヴェトコフ、シャンビン・フェン、トーマス・リチャードソン、ダニエル・W・フィッシャー、スタンフォード大学のイェジン・チョイとジェニファー・パン、そしてThatGameCompanyのロバート・アーロンです。本研究は会議のために査読を受けましたが、学術誌には掲載されていません。