Напоминание об ИИ-чатботах
ИИ-чатботы, такие как ChatGPT, могут уверенно представлять вымышленную информацию, подобно GPS, ошибочно направляющему вас через озеро. Это предупреждение основано на недавнем эксперименте Nieman Lab, который выяснил, может ли ChatGPT предоставить точные ссылки на статьи новостных организаций, имеющих прибыльные контракты с OpenAI.
Результаты оказались тревожными. Вместо корректных URL ChatGPT создал совершенно вымышленные ссылки, ведущие на страницы с ошибкой 404. Это явление в индустрии ИИ часто называют «галлюцинациями» — термин, который точно описывает систему, уверенно искажающую информацию. Эндрю Дек из Nieman Lab попросил ChatGPT сгенерировать ссылки на эксклюзивные статьи десяти ведущих издателей. Результаты повторили предыдущие тесты, в частности один с Business Insider, который также показал ошибочные URL.
Представитель OpenAI признал в Nieman Lab, что компания продолжает разрабатывать систему, которая должна объединить возможности разговорного ИИ с актуальным новостным контентом. Эта система предполагает обеспечение правильного указания источников и точных ссылок на материалы, но детали выпуска и надежности пока неясны.
Несмотря на эти неопределенности, новостные организации продолжают существенно пополнять модели OpenAI контентом за денежное вознаграждение, нередко жертвуя своей целостностью. Тем временем компании ИИ используют неконтрактный контент из различных источников для обучения своих моделей. Мустафа Сулейман, глава области ИИ в Microsoft, описал весь опубликованный интернет-контент как «бесплатное программное обеспечение», что укрепляет культуру эксплуатации. Рыночная стоимость Microsoft на момент написания составила 3.36 триллиона долларов.
Главный вывод очевиден: если ChatGPT создает вымышленные URL, он, вероятно, также искажает факты. В своей основе генеративный ИИ функционирует как продвинутое автозаполнение, просто предсказывая следующее логичное слово в последовательности без истинного понимания. Например, когда я тестировал ведущие чатботы для решения задачи New York Times Spelling Bee, они сталкивались с серьезными трудностями. Это указывает на то, что полагаться на генеративный ИИ для получения фактической информации — это, мягко говоря, рискованно.