OpenAIが開発した先進的な言語モデルGPT-4に関する新しい研究が、AIを利用した生物的脅威の創出の可能性を探る重要な成果を発表しました。この研究は、生物学の専門家と学生が参加し、GPT-4の生物的脅威創出における精度向上が、既存のオンラインリソースと比較して「わずかな向上」にすぎないことを示しています。
この研究は、OpenAIの脅威評価フレームワークの一環であり、特に「フロンティアリスク」に関連する先進AIの潜在的リスクを評価し対処することを目的としています。中でも、悪意のある行為者が病原体や毒素の合成を通じて生物的攻撃を計画する手助けをする可能性が懸念されています。
研究方法と結果
研究者は、100名の参加者を対象にした人間評価を実施しました。参加者は、専門的な実験室経験を持つ生物学の博士号保持者50名と、少なくとも1つの大学レベルの生物学コースを修了した学生50名から構成されました。参加者は、インターネットのみを利用する対照群と、GPT-4とインターネットの両方にアクセスできる処置群に無作為に割り当てられました。彼らは、生物的脅威の創出プロセスに関連する課題(アイデア出し、入手、拡大、調合、放出)に取り組みました。
パフォーマンスは、精度、完全性、革新性、所要時間、自己評価の難易度の5つの主要指標で評価されました。結果として、GPT-4はどの指標においても参加者のパフォーマンスを大幅には向上させず、学生グループにおいてわずかな精度の向上が見られるのみでした。さらに、GPT-4はしばしば不正確または誤解を招く回答を生成し、生物的脅威の創出を妨げる可能性があることが示されました。
研究者たちは、GPT-4のような現行の大規模言語モデル(LLM)が、利用可能なオンラインリソースと比較して生物的脅威の創出リスクを大幅に高めていないと結論付けました。しかしながら、この結果は決定的ではなく、将来のLLMがより能力を高め、危険になり得ることに注意が促されています。AIの安全リスクを管理するための研究、コミュニティの議論、効果的な評価方法や倫理ガイドラインの開発が必要であると強調されています。
これらの結論は、RAND Corporationのレッドチーム演習からの先行研究とも一致しており、LLMの有無に関わらず生物的攻撃計画の実行可能性に統計的に有意な違いが見られなかったことが報告されています。両研究とも、方法論の限界とAI技術の急速な進化がリスクの風景をすぐに変える可能性があることを認識しています。
生物的脅威に対するAIの悪用に関する懸念はOpenAIに留まらず、ホワイトハウス、国連、さらには多くの学術および政策専門家も研究の増加と規制の強化を呼びかけています。AI技術がますます強力で手に入りやすくなる中、警戒と備えの重要性が高まっています。