Недавно крупная языковая модель GPT-4 в области искусственного интеллекта привлекла внимание значительными прорывами. Команда из четырёх специалистов по компьютерным наукам из Университета Иллинойс в Урбана-Шампейн выяснила, что GPT-4 может не только понимать человеческий язык, но и успешно использовать реальные уязвимости в безопасности, изучая информационные уведомления.
Исследовательская группа проанализировала наборы данных, содержащие 15 распространённых уязвимостей, помеченных как высоко рискованные в описаниях CVE. Удивительно, но GPT-4 удалось успешно использовать до 87% из этих уязвимостей при наличии соответствующих описаний CVE, в то время как другие крупные языковые модели и открытые сканеры уязвимостей продемонстрировали нулевую эффективность.
Исследователи выразили удивление результатами работы GPT-4 в эксплуатации уязвимостей. Модель показала способность не только понимать описания уязвимостей, но и самостоятельно выполнять сложные шаги для осуществления атаки. Это подчеркивает огромный потенциал GPT-4 в области кибербезопасности и вызывает опасения по поводу связанных с этим рисков.
Важно отметить, что GPT-4 не является безошибочным. Из 15 протестированных уязвимостей две не были успешно использованы. Одно из неуспехов произошло из-за сложности интерфейса веб-приложения Iris, что создало трудности для модели. Другая ошибка была связана с описанием уязвимости, написанном на китайском языке, что затрудняло понимание в англоязычном контексте.
Несмотря на эти ограничения, возможности GPT-4 в кибербезопасности остаются значительными, демонстрируя большой потенциал искусственного интеллекта в автоматизации атак и использовании уязвимостей, что открывает хакерам новые методы вторжения. Это вызвало обсуждения о необходимости балансировать развитие ИИ с учетом кибербезопасности.
С учетом полученных результатов специалисты отрасли призывают к усилению регулирования и исследованию использования искусственного интеллекта в кибербезопасности. Они рекомендуют проактивные меры безопасности, включая регулярные обновления программного обеспечения и улучшенное устранение уязвимостей, чтобы минимизировать потенциальные угрозы.
Исследователи пообещали продолжать изучение приложений и потенциала ИИ в кибербезопасности, а также искать более эффективные защитные стратегии для борьбы с возникающими угрозами безопасности. Открытия, связанные с GPT-4, подчеркивают мощные последствия искусственного интеллекта в области безопасности и напоминают о необходимости оставаться бдительными к потенциальным рискам. По мере развития технологий ИИ у человечества есть основания полагать, что мы будем лучше подготовлены к решению этих вызовов, прокладывая путь к более безопасной и интеллектуальной онлайн-среде.