Недавно исследование Google привлекло значительное внимание в технологическом сообществе. Исследовательская группа утверждает, что успешно извлекла ключевые параметры из крупных языковых моделей (LLMs) OpenAI с помощью простых вызовов API, что обошлось примерно в 150 юаней (около 22 долларов США).
Работа сосредоточена на моделях серии GPT от OpenAI. Используя точные запросы API, команда Google смогла собрать критически важные данные из проекционного слоя встраиваний модели. Этот финальный слой играет ключевую роль, сопоставляя скрытые размерности с логит-векторами, которые являются основой выходных данных модели.
Исследователи отметили, что отправляя специфические запросы и анализируя ответы модели, они могли определить размер скрытых размерностей. Эта техника применима не только к базовым моделям, таким как Ada и Babbage, но также к более продвинутым версиям, таким как GPT-3.5 и GPT-4.
Важно отметить, что Google провела это исследование с разрешения OpenAI и подтвердила правильность своих методов после завершения, гарантировав удаление всех данных, связанных с исследованием. Несмотря на получение ключевых параметров модели через вызовы API, это открытие шокировало индустрию, подчеркивая потенциальные уязвимости даже в моделях, защищенных строгими мерами безопасности.
В ответ OpenAI внедрила защитные стратегии, включая изменения в своем API и скрытых размерностях. Тем не менее, этот инцидент вызвал renewed обсуждение вопросов безопасности и открытости крупных языковых моделей.
Находки Google не только выявляют потенциальные слабости безопасности в LLM, но и открывают перспективы для будущих исследований в этой области. По мере развития технологий ИИ обеспечение безопасности и конфиденциальности моделей остается критической задачей для отрасли.
Этот инцидент служит важным напоминанием для OpenAI о приоритете безопасности моделей и необходимости внедрения более строгих защитных мер. Сотрудничество с партнерами по отрасли также сыграет ключевую роль в содействии здоровому развитию технологий ИИ.
В заключение, исследование Google предоставило новый взгляд на проблемы безопасности вокруг крупных языковых моделей. Мы с нетерпением ждем новых исследований и инноваций, способствующих дальнейшему развитию технологий искусственного интеллекта.