OpenAI сталкивается с массовым уходом сотрудников из команды по безопасности AGI, что вызывает опасения по поводу безопасности ИИ
Недавно OpenAI, ведущая компания в области искусственного интеллекта, столкнулась с серьезной проблемой в staffing. Несколько бывших сотрудников сообщили, что команда, занимающаяся безопасностью Искусственного Общего Интеллекта (AGI), значительно сократилась за последние месяцы, уменьшившись с примерно 30 человек до около 16. Это изменение вызвало широкие опасения в технологическом сообществе и среди общественности относительно приверженности OpenAI к безопасности ИИ.
Согласно отчету Fortune, бывший исследователь в области управления Даниэль Кокатаджло объяснил, что недавние увольнения были не общекорпоративным решением, а добровольным выбором нескольких членов команды, которые почувствовали себя неуютно относительно будущего компании и её стратегий. Команда по безопасности AGI в первую очередь отвечает за оценку и снижение потенциальных рисков, связанных с суперинтеллектуальными ИИ-системами, обеспечивая, что эти технологии не угрожают человеческому существованию.
Кроме сокращения команды по безопасности AGI, соучредитель и главный ученый OpenAI Илья Сутскевер также недавно объявил о своей отставке, что привело к расформированию его команды "супер-выравнивания", сосредоточенной на безопасности ИИ. Эта цепочка высокопрофильных изменений усилила опасения о том, что OpenAI отклоняется от своей первоначальной миссии по разработке технологий ИИ, полезных для человечества.
Представитель OpenAI подтвердил приверженность компании к предоставлению продвинутых и безопасных ИИ-систем, подчеркивая научный подход к управлению потенциальными рисками. Однако эти заверения не уменьшили общественное беспокойство по поводу снижения акцента на безопасности ИИ.
Эксперты отрасли отмечают, что по мере стремительного развития технологий ИИ обеспечение их безопасности и управляемости становится все более важным. Как ведущая компания в сфере ИИ, позиция OpenAI и её инвестиции в безопасность ИИ окажут значительное влияние на траекторию всей отрасли и доверие общества к достижениям в области ИИ.
Массовый уход из команды по безопасности AGI служит сигналом тревоги для всей индустрии, подчеркивая необходимость для компаний и специалистов, занимающихся исследованиями и разработкой ИИ, приоритизировать безопасность и этические аспекты. Технологические достижения должны действительно приносить пользу человечеству, а не представлять новые угрозы для его выживания.