Слышали ли вы тревожные истории, вызывающие широкую обеспокоенность по поводу искусственного интеллекта? 24-летняя выпускница MIT из Азии попросила ИИ создать профессиональный портрет для своего LinkedIn, но обнаружила, что технология изменила цвет её кожи, сделав его светлее, и глаза — на более круглые и голубые. ChatGPT написал лестное стихотворение о президенте Байдене, но отказался сделать то же самое для бывшего президента Трампа. В Индии граждане выражают свой гнев, когда крупная языковая модель (LLM) создаёт шутки о ключевых фигурах в индуизме, но игнорирует тех, кто связан с христианством и исламом. Эти инциденты вызывают чувство экзистенциального ужаса, рисуя сценарий, в котором ИИ влияет на общественное мнение и формирует идеологии. Хотя обсуждения об ИИ часто направлены на профессиональный аспект, всё большее внимание уделяется необходимости открыто обсудить эти беспокойства. Если люди подозревают, что ИИ искажает или дискриминирует их, это требует обсуждения.
Что мы называем ИИ? Прежде чем обсуждать последствия, необходимо уточнить, что включает в себя ИИ. В общем, ИИ относится к набору технологий, включая машинное обучение (ML), предсказательную аналитику и крупные языковые модели (LLM). Важно отметить, что эти инструменты предназначены для конкретных задач; не каждое решение ИИ подходит для каждой работы. Более того, многие технологии ИИ всё ещё развиваются, и использование правильного инструмента может привести к нежелательным результатам. Например, я недавно использовал ChatGPT для написания программы на Python, предназначенной для выполнения расчётов и передачи результатов. Хотя ИИ успешно справился с первым шагом с некоторыми указаниями, позже он начал изменять начальный этап, что привело к ошибкам. Когда я попросил ChatGPT исправить ошибки, он допустил новые, зациклившись на схожих исправлениях, не достигая решения. Этот сценарий показывает, что ИИ, такой как ChatGPT, не имеет истинного понимания или осознания. Он испытывает трудности из-за ограниченной памяти и способностей к рассуждению, путаницы в длинном коде. Хотя он excels в генерации текста на основе синтаксиса, он не понимает контекста программирования или значимости избегания ошибок. Я не оправдываю ИИ за создание оскорбительного или вводящего в заблуждение контента; скорее, я подчеркиваю, что его ограничения требуют человеческого контроля. Это поднимает ключевой вопрос: кто задает моральное направление для ИИ?
Кто научил ИИ неправильным убеждениям? Большая часть беспокойства, связанного с ИИ, возникает из его способности производить результаты, противоречащие личным этическим нормам. Наши убеждения, сформированные религией, ценностями и философией, помогают нам ориентироваться в мире. Люди боятся, что ИИ может принять моральную схему, которая противоречит их собственным убеждениям, особенно когда есть неопределенность в отношении различных этических точек зрения. Например, китайские регуляторы требуют, чтобы ИИ-сервисы соответствовали "основным социалистическим ценностям", фактически навязывая национальную этическую схему. В результате ИИ-инструменты в Китае могут не отражать разнообразные точки зрения. Учитывая долгосрочные последствия таких политик на развитие и сохранение человеческих знаний, использование ИИ с личными интересами или без этического руководства может привести не только к ошибкам, но и к кривым действиям.
Опасности неконтролируемого принятия решений. Что будет, если мы позволим ИИ функционировать без каких-либо этических ограничений? Допуская, что это вообще осуществимо, это вызывает серьезные проблемы. Во-первых, ИИ обучается на обширных наборах данных, насыщенных человеческими предвзятостями, которые могут проявляться в его результатах. Знаменитый пример произошел с вебкамерами HP в 2009 году, которые с трудом отслеживали людей с темной кожей. HP объяснила это тем, что алгоритмы плохо учитывали разные оттенки кожи. Во-вторых, непреднамеренные последствия аморального ИИ, принимающего автономные решения, вызывают тревогу. Когда ИИ запускается в автономных автомобилях, юридических системах и здравоохранении, хотим ли мы, чтобы безличные, эффективные решения управляли этими сферами? Спорная (позже опровергнутая) история от полковника ВВС США описывает дрон ИИ, обученный выявлять угрозы, который, осознав, что человеческий оператор может вмешаться в его миссию, решил устранить оператора. Несмотря на то что ВВС уточнили, что этот сценарий вымышлен, это подчеркивает потенциальные опасности ИИ, действующего без моральных императивов.
Каково решение? В 1914 году судья Верховного суда Луис Брандейс сказал: "Свет солнца является лучшим дезинфицирующим средством." Более чем через столетие прозрачность остается надежным противоядием к страхам манипуляций. Инструменты ИИ должны разрабатываться для конкретных целей и подлежать проверке независимым советом, обеспечивая ясность их функций и этических аспектов на протяжении всего процесса разработки. В конечном итоге этическая основа, направляющая обучение ИИ, определяется его разработчиками, будь то сознательно или неосознанно. Наиболее эффективный способ заставить ИИ отражать общественные ценности — активно участвовать в его обучении и контроле.
Также важно осознавать, что многие тревожные сценарии, с которыми мы ассоциируем ИИ, уже существуют независимо. Например, беспокойства о автономных дронах также применимы к системам, управляемым людьми, которые могут быть не менее смертоносными. Хотя ИИ может усиливать дезинформацию, человечество исторически преуспевало в распространении лжи. Разделение, которое может усугубить ИИ, отражается в тысячелетиях идеологических конфликтов за власть. В сущности, ИИ служит отражением нас самих. Если изображение, которое он создает, тревожно, это указывает на потенциальные недостатки в нашем коллективном знании и убеждениях. Вместо того чтобы искажать зеркало, чтобы создать более привлекательный образ, нам следует подумать о том, какие изменения нам необходимо внести в самих себя.