Доверие к ИИ: Важность обоснования выводов ИИ
Ежемесячно более 500 миллионов человек полагаются на Gemini и ChatGPT для получения информации, начиная от приготовления пасты и заканчивая решением сложных домашних заданий. Однако если ИИ советует готовить пасту на бензине, это вызывает вопросы о его надежности в других областях, таких как контрацепция или алгебра.
На Всемирном экономическом форуме в январе генеральный директор OpenAI Сэм Альтман подчеркнул необходимость прозрачности в выводах ИИ: "Я не могу заглянуть вам в мозг, чтобы понять ваши мысли, но могу спросить вас объяснить ваше рассуждение и определить, звучит ли оно разумно. Я верю, что наши ИИ-системы смогут сделать то же самое."
Знания требуют обоснования
Альтман стремится внушить доверие к большим языковым моделям (LLMs), таким как ChatGPT, предлагая, что они могут предоставлять четкие объяснения своих выводов. Без веского обоснования убеждения не могут считаться знаниями. Когда мы чувствуем себя уверенными в том, что знаем? Обычно это происходит, когда наши убеждения поддерживаются надежными доказательствами, логическими аргументами или свидетельствами доверенных источников.
LLMs должны быть надежными источниками информации. Однако без способности объяснять свои рассуждения, мы не можем быть уверены, что их заявления соответствуют нашим критериям обоснования. Например, если вы утверждаете, что сегодняшний смог в Теннесси вызван лесными пожарами в Канаде, я, возможно, приму ваше утверждение. Но если вы ранее утверждали, что бои змей распространены на защите диссертаций, ваша степень доверия под сомнением. Я тогда буду искать разъяснения ваших рассуждений по поводу смога.
Ограничения понимания ИИ
Современные ИИ-системы не могут заслужить наше доверие через рассуждения, так как у них нет такой способности. Вместо этого LLM обучены на обширных наборах данных для обнаружения и предсказания языковых паттернов. Когда вводится запрос, инструмент генерирует ответ на основе этих паттернов, часто имитируя речь осведомленного человека. Однако этот процесс не подтверждает точность или обоснование содержания. Как утверждают Хикс, Хамфрис и Слейтер в "ChatGPT — это чепуха", LLM создают текст, который кажется убедительным, но не проявляет истинной заботы о правде.
Если контент, генерируемый ИИ, не равен человеческим знаниям, то что он собой представляет? Хотя может показаться неверным классифицировать все выводы как "чепуху", многие ответы LLM являются фактически верными, что приводит к тем ситуациям, которые философы называют кейсами Геттиэра. Эти случаи возникают, когда истинные убеждения существуют наряду с отсутствием понимания их обоснования.
Выводы ИИ как иллюзии
Для иллюстрации этого рассмотрим сценарий, вдохновленный индийским буддийским философом VIII века Дхармоттарой: представьте, что вы ищете воду в знойный день. Вы замечаете то, что кажется водой, но в итоге это оказывается миражом. Когда вы достигаете этого места, однако, находите настоящую воду под камнем. Можете ли вы претендовать на истинное знание о том, какую воду искали?
Большинство согласятся, что эти путешественники не обладают подлинным знанием; они просто наткнулись на воду, несмотря на отсутствие solid reasoning для ожидания её наличия.
Когда мы утверждаем, что знаем что-то, полученное от LLM, мы оказываемся в подобной ситуации, как путешественники Дхармоттары. Если LLM была обучена эффективно, её выводы, скорее всего, верны, как будто мы обнаруживаем воду там, где ожидаем. Тем не менее, обоснование, подтверждающее это утверждение, существует где-то в наборе данных, но не играет никакой роли в генерации вывода.
Таким образом, гарантии Альтмана могут быть обманчивыми. Если вы попросите LLM обосновать свой вывод, она создаст убедительное, но поверхностное обоснование — "обоснование Геттиэра", как описывают Хикс и др. Это подражание обоснованию не имеет настоящей основы.
Риск вводящих в заблуждение обоснований
В настоящее время ИИ-системы часто неверно интерпретируют или "галлюцинируют" фактическую информацию, что приводит к несоответствиям. Поскольку иллюзия обоснования становится всё более правдоподобной, мы сталкиваемся с двумя потенциальными исходами:
1. Осведомлённые пользователи: Те, кто осознаёт внутренние ограничения ИИ, поймут, что LLM производят обманчивые утверждения.
2. Неосведомлённые пользователи: Люди, которые не понимают природу выводов ИИ, могут быть введены в заблуждение, живя в условиях, когда различить факт от вымысла становится сложно.
Необходимость обоснования выводов ИИ
Хотя LLM служат мощными инструментами, их выводы требуют анализа. Пользователи, особенно те, кто не обладает экспертными знаниями, полагаются на ИИ для критически важной информации — подростки, ищущие помощь с алгеброй или советы по безопасному сексу. Чтобы обеспечить ответственность и доверие к выводам ИИ, мы должны понимать обоснование за каждым утверждением.
К счастью, опытные люди понимают, что оливковое масло — лучший выбор для приготовления спагетти, чем бензин. Но сколько потенциально вредных рецептов реальности мы приняли на веру от ИИ, не задаваясь вопросом об их обосновании?