Iphone

アレンAI研究所はAIリスクの管理と透明性の促進に新たなアプローチを採用

アレンAI研究所はAIリスクの管理と透明性の促進に新たなアプローチを採用
(ビッグストック画像)

人工知能(AI)は私たちの世界に深く浸透し、あらゆる新たな可能性を生み出していますが、同時に新たなリスクや危険も生み出しています。データのプライバシー、根深い偏見、意図的あるいは無意識的な虚偽情報などは、いずれも大きな懸念事項です。

これらの問題のいくつかに対する一つのアプローチが、シアトルのアレンAI研究所(AI2)で研究されています。同研究所は最近発表されたAI2オープン言語モデル(OLMo)を基に、AI分野におけるリスクの軽減と透明性の向上を目的としたライセンス群であるImpact License Project(ImpACT)を立ち上げました。

このプロジェクトは、AI2 の核となる価値である影響、説明責任、コラボレーション、透明性を実現するために命名され、設計されています。

「OLMoをプラットフォームとして捉えています」と、AI2の法務チームと緊密に連携するAI研究科学者のジェシー・ドッジ氏は述べた。「ですから、この大規模なオープンモデルを構築するにあたり、私たちが行っているすべてのステップについて、できる限りオープンにするよう努めています。これには、モデルの学習に使用したデータの公開なども含まれます。」

ImpACT ライセンスは、当初 OLMo オープン モデル専用に設計されており、いくつかの斬新なアプローチを採用しています。

ライセンス制限はリスクベースであるため、アーティファクトの種類に依存しません。ライセンスはリスク評価に基づいており、アーティファクトやアーティファクトの種類(ライセンス対象となるデータとモデル)によってセグメント化されていないため、派生的な下流モデルやアプリケーションにも容易に適用できます。そのため、ライセンスのリスクカテゴリー(低、中、高)は、弁護士、倫理学者、科学者からなる多分野にわたるグループによる評価に基づいて割り当てられています。 

ここ数年、大規模モデルが世界を席巻しています。これには、大規模言語モデルや大規模マルチモーダルモデルなどがあり、これらは本質的にニューラルネットワークを中核としています。モデルとは、ノード(ニューロン)の構成と、それらのノードを相互に接続する値のことです。これらの値は、重みとバイアスと呼ばれます。

imPACTライセンス評価に必要な情報の多くは、ライセンス取得プロセスで作成される派生的影響報告書から得られます。これらの誠実な自己報告文書は、成果物に関する詳細情報を開示します。これらの報告書は、モデルカードやデータセットカードと同様に機能することを意図しており、派生的成果物の意図された用途、資金源、エネルギー消費量、データの由来に関する詳細情報が含まれています。

この透明性により、研究者、開発者、ユーザーは、自分たちが取り組んでいる内容だけでなく、コミュニティ全体をより深く理解できるようになります。 

「このプロジェクト全体の革新的な点は、開発プロセス全体にわたって組み込んだ安全対策と意思決定ポイントだと思います」と、AI2の法務顧問兼プロジェクトリーダーのジェニファー・デュマス氏は語る。

ImpACTライセンスは、データやモデルなどのAI成果物に使用するために設計されていますが、ソフトウェアやソースコードには適用されません。これらの成果物は、引き続き既存のライセンススキームに基づいてライセンス供与されます。 

ImpACTライセンスは、成果物の用途は、その種類とは別物であるという考え方に基づいています。例えば、公共データと医療データはどちらもデータセットとして分類できますが、有害な利用の可能性は大きく異なります。既存のライセンスでは、これら2つのデータセットは同じように公開され、分類されている可能性がありますが、ImpACTでは異なる扱いを受けます。

これらのライセンスのもう一つの斬新な特徴は、情報の公開性によってコミュニティによる監視が容易になることです。これにより、違反者の公開報告や、想定される用途やプロジェクトのインプットに関する開示要件の適用が可能になります。このようなクラウドソーシングによるアプローチは、コミュニティの価値観が尊重されるだけでなく、このコンセプトの拡大に​​も役立ちます。

こうした善意に基づく公開情報開示において提供された情報に対する免責条項を組み込むことで、公開報告へのインセンティブが高まることが期待されます。これは、コミュニティの価値観との整合性を確保する上で重要です。

これにより、新たな考慮事項が生じます。検討対象となる基準の多くは価値観や価値判断に帰着するため、あるグループやコミュニティにとって有効なものが、別のグループやコミュニティには有効ではない可能性があることを認識することが重要です。

「このライセンスを誰かが自分の用途に合わせて改変してくれると嬉しいです」とデュマ氏は語った。「共有し、自分自身の価値判断で活用していただければ」

AI管理に対するこの新たなアプローチは、世界がAIのリスクと課題への懸念をますます深めている時期に登場しました。先月、バイデン政権はAmazon、Anthropic、Google、Inflection、Meta、Microsoft、OpenAIなど、AI分野の主要企業と会合を開きました。ホワイトハウスは、これらの企業から安全でセキュリティが高く、透明性のある開発の確保に向けた自主的なコミットメントを確保したと述べましたが、その具体的な内容については依然として不明です。

AI2のアプローチはまだ初期段階ですが、少なくともAIが直面する問題に対するより具体的な解決策を模索しているように見えます。オープンなアプローチの重要性を認識し、コミュニティによる監視を通じて人間の価値観を幅広く反映させることで、正しい方向への一歩を踏み出したように感じます。 

「AIの歴史上初めて、営利システムで大規模な開発が行われているにもかかわらず、研究コミュニティと共有されていないのです」とドッジ氏は述べた。「研究コミュニティは今後も営利システムに利益をもたらす進歩を続けていくでしょうが、その逆はあり得ません。私たちのモチベーションの一つは、可能な限りオープンにすることで、振り子を逆方向に振ろうとすることです。」

同研究所は、ライセンスの最初のアイデアはAI2のPRIORチームの研究者であるアルバロ・ヘラスティ氏から生まれたことを認めています。ヘラスティ氏は、AI2の2022年ハッカソンイベントで「公共の利益のためのソフトウェアライセンス」というアイデアを初めて提案しました。

「ライセンスの問題を検討していく中で、私たちは考え方を少し変えました」とデュマ氏は語る。「リスクに応じたライセンスという考え方自体は、OLMo以外にも、もしかしたらAI以外にも応用できると思います。」

AI2 ImpACT ライセンスの仕組みの詳細については、最近の AI2 ブログ投稿および ImpACT ライセンスの法的テキストの概要をご覧ください。