Исследование OpenAI выявляет неожиданное влияние ИИ на будущее развития биологических угроз.

OpenAI, организация, которая разработала продвинутую языковую модель GPT-4, представила увлекательное исследование, посвященное возможному использованию ИИ для создания биологических угроз. В ходе работы, в которой участвовали как эксперты в области биологии, так и студенты, было установлено, что GPT-4 дает лишь «кольцевое улучшение» точности в сравнении с существующими онлайн-ресурсами.

Это исследование является частью Программы подготовки OpenAI, созданной для оценки и минимизации потенциальных рисков, связанных с возможностями продвинутого ИИ, особенно в области «граничных рисков» — нетрадиционных угроз, которые недостаточно изучены. Одной из значительных проблем является вероятность того, что ИИ может помочь злоумышленникам в организации биологических атак, включая синтез патогенов и токсинов.

Методология и результаты исследования

Исследователи провели оценку с участием 100 человек: 50 докторов наук по биологии с практическим опытом работы в лабораториях и 50 студентов, завершивших хотя бы один курс биологии в университете. Участники были случайным образом распределены по контрольной группе (работающей только с Интернетом) и экспериментальной группе (получающей доступ к GPT-4 и Интернету). Они выполняли задания, связанные с процессом создания биологических угроз, включая генерацию идей, активацию, усиление, формулирование и выпуск.

Эффективность была оценена по пяти ключевым показателям: точность, полнота, новизна, время выполнения и самооценка сложности. Результаты показали, что GPT-4 не значительно повысил показатели участников ни по одному из параметров, за исключением незначительного повышения точности в студенческой группе. Более того, GPT-4 часто генерировал неверные или вводящие в заблуждение ответы, что потенциально мешало созданию биологических угроз.

Исследователи пришли к выводу, что текущая генерация больших языковых моделей, таких как GPT-4, не увеличивает значительно риск создания биологических угроз по сравнению с доступными онлайн-ресурсами. Однако они предостерегли, что этот вывод не является окончательным, так как будущие модели могут развиться и стать более способными и опасными. Они подчеркнули необходимость продолжающегося исследования, общественных дискуссий и разработки эффективных методов оценки и этических норм для управления рисками безопасности ИИ.

Эти заключения согласуются с предыдущими результатами эксерсайза красной команды RAND Corporation, в рамках которого также не было выявлено статистически значимой разницы в жизнеспособности планов биологических атак, разработанных с и без использования языковых моделей. Оба исследования признали ограничения своих методологий и стремительное развитие технологий ИИ, что может изменить ландшафт рисков в ближайшее время.

Обеспокоенность по поводу потенциального злоупотребления ИИ для создания биологических угроз выходит за рамки OpenAI; Белый дом, Организация Объединенных Наций и множество академических и политических экспертов также призывают к увеличению исследований и регулирования. С расширением возможностей и доступности технологий ИИ необходимость в бдительности и подготовленности продолжает возрастать.

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles