Iphone

一流の研究者がバイオ分子設計のための責任あるAIを支援する取り組みに参加

一流の研究者がバイオ分子設計のための責任あるAIを支援する取り組みに参加

アラン・ボイル

図: 生体分子に変換されたAI構造の可視化
AI技術により、科学者は自然界には見られないような生体分子を生成できるようになりました。(イラスト:イアン・C・ヘイドン / ワシントン大学タンパク質設計研究所)

ノーベル賞受賞者を含む100人以上の研究者が、人工知能を使って合成タンパク質を設計する際に科学界が一連の安全・セキュリティ基準に従うよう求める呼びかけに署名した。

タンパク質設計のためのAIの責任ある開発に関するコミュニティ声明が、本日ボストンで開催される生体分子工学に特化したカンファレンス「Winter RosettaCon 2024」において発表されます。この声明は、ワシントン大学医学部タンパク質設計研究所が昨年10月に開催したAI安全サミットの成果を踏襲するものです。

「これは科学界にとって極めて重要な一歩だと考えています」と、同研究所所長のデイビッド・ベイカー氏はニュースリリースで述べた。「タンパク質設計におけるAIの責任ある活用は、世界に利益をもたらす新たなワクチン、医薬品、そして持続可能な素材の創出につながるでしょう。科学者として、私たちはこれを実現すると同時に、ツールが悪用されて危害を及ぼす可能性を最小限に抑えなければなりません。」

コミュニティの声明では、研究者に対し、タンパク質設計用の新しい AI モデルをリリースする前に安全性とセキュリティのレビューを実施し、研究の実践に関するレポートを発行するよう求めています。

AI支援技術は、将来のパンデミックなどの生物学的緊急事態への迅速な対応に活用されるべきだと報告書は述べています。また、研究者に対し、DNA製造に関わる安全対策への参加を促しています。例えば、合成遺伝子配列を研究に使用する前に、その危険性を事前に確認することなどが挙げられます。

一連の原則と自主的な取り組みの背景にあるプロセスは、1975年に組み換えDNAの安全な使用に関するガイドラインを策定したアシロマ会議と類似している。「これは、10月に開催したサミットの明確なモデルでした」と、タンパク質設計研究所の広報責任者であり、声明を作成した委員会のメンバーであるイアン・ヘイドン氏は述べた。

デビッド・ベイカー氏は、ワシントン大学医学部のタンパク質設計研究所の所長です。(ワシントン大学写真)

この声明に最初に署名した研究者の一人に、カリフォルニア工科大学の生化学者フランシス・アーノルド氏がいます。彼女は、酵素工学における指向性進化の先駆的応用により、2018年にノーベル化学賞を共同受賞しました。アーノルド氏は、大統領科学技術諮問委員会(PCAST​​)の共同議長も務めています。

他の著名な署名者には、マイクロソフトの最高科学責任者であり PCAST​​ のメンバーでもあるエリック・ホーヴィッツ氏や、はるか昔に絶滅したケナガマンモスを復活させようとした活動で最もよく知られているハーバード大学の遺伝学者ジョージ・チャーチ氏などがいる。

ヘイドン氏は、生体分子の構造予測や設計のためのAI技術を積極的に開発している他の研究者も、オンライン署名者リストに署名を歓迎すると述べた。また、誰でも署名できる支持者リストも別途用意されている。(このリストに最初に署名した支持者には、Metaの副社長兼チーフAIサイエンティストであるヤン・ルカン氏と、ジョージ・W・ブッシュ大統領の下で米国グローバルエイズコーディネーターを務め、現在はレノバロ・バイオサイエンシズのCEOを務めるマーク・ダイブル氏がいる。)

キャンペーン主催者は、個人が声明に署名したという事実は、署名者の所属機関による何らかの支持を意味するものではないと述べており、声明に示された自主的なコミットメントを強制する意図はない。そこで、次の疑問が浮かび上がる。声明は果たして何らかの影響を与えるのだろうか?

「実行こそが次の、そして最も重要なステップです」とヘイドン氏はGeekWireへのメールで述べた。「この新たな誓約は、多くの科学者が他の専門家と協議しながら、この取り組みを主導したいと考えていることを示しています。研究者と科学研究資金提供者、出版社、そして政策立案者の間で緊密な協力が進むことを期待しています。」

タンパク質設計研究所は、生体分子工学における世界的リーダーの一つです。ベイカー氏と同研究所の同僚たちは10年以上にわたり、ビデオゲームを含む計算ツールを用いて、タンパク質分子を「鍵」のように折り畳むことで治療効果を高めたり、有害なウイルスを遮断したりする方法の検証を行ってきました。2019年には、同研究所はTEDのAudacious Projectから5年間で4500万ドルの助成金を獲得し、研究を支援しました。

この分野のもう1つのリーダーはGoogle DeepMindで、同社はAlphaFold AIプログラムを使用して、2022年までに2億個以上のタンパク質の3D構造を予測しました。DeepMindの研究者はコミュニティ声明の初期署名者ではありませんでしたが、Google AIはAI研究に関する独自のコミットメントを発表しました。

「GoogleのAI原則に基づき、安全で責任あるAIの開発と展開に尽力しています」と、Google DeepMindの広報担当者はGeekWireへのメールで述べた。「これには、タンパク質フォールディングモデルAlphaFoldのリリース前に、複数の外部専門家を交えた包括的な協議を実施することも含まれます。」

人工知能の潜在的なリスクを管理し、潜在的なメリットを最大化するための取り組みは、過去 1 年間で勢いを増しています。

  • 昨年7月、Amazon、Anthropic、Google、Inflection、Meta、Microsoft、OpenAIの7つのテクノロジー企業グループは、ホワイトハウスと共同で、責任あるAI開発に向けた一連の自主的な取り組みを実施した。
  • 先月、ワシントン大学は、AIを取り巻く倫理的および安全性の問題に対処し、大学全体のAI戦略を策定するために、人工知能に関するタスクフォースを任命すると発表しました。
  • 今週、ワシントン州議会は、議員が AI の利点とリスクをより深く理解するのに役立つ人工知能タスクフォースを設置する計画を承認しました。

ヘイドン氏は、バイオ分子設計における AI の責任ある使用を促進するキャンペーンを、こうした大きなトレンドの一部と見ている。

「AIの利点とリスクに取り組んでいるコミュニティは、これだけではありません」と彼は述べた。「同様の問題に取り組んでいる方々からの意見を歓迎します。しかし、AIの各分野には、それぞれ独自の利点、リスク、そして複雑さがあります。大規模言語モデルや病院データで学習したAIで有効な方法が、化学や分子生物学のような分野に必ずしも当てはまるとは限りません。それぞれの状況に適したソリューションを生み出すことが課題となるでしょう。」

コミュニティ声明に署名する人が増えたという事実を反映するために、このレポートを更新しました。