По мере того как мы вступаем во вторую половину 2024 года, ландшафт искусственного интеллекта переживает значительные изменения. Первоначальный восторг после выпуска ChatGPT от OpenAI — самого быстрорастущего продукта в истории с 100 миллионами пользователей — начал угасать. Мы переходим от эпохи почти безудержного хайпа к реальности, где предприятия сталкиваются с вызовами внедрения технологий ИИ в реальные продукты.
Заявления генерального директора OpenAI Сэма Альтмана о "магической интеллигенции на небе" вызвали бурю среди разработчиков в Кремниевой долине, многие из которых поверили, что мы на пороге достижения человеческого уровня машинного интеллекта во всех областях, известного как искусственный общий интеллект (AGI).
Тем не менее, по мере продвижения 2024 года, появляется более нюансированная картина. Предприятия, осознавая практические аспекты внедрения ИИ, принимают более осторожный подход. Наступает осознание того, что, хотя большие языковые модели (LLM), такие как GPT-4, невероятно мощные, генеративный ИИ в целом не оправдал завышенных ожиданий Кремниевой долины. Эффективность LLM достигла плато, сталкиваясь с постоянными проблемами с фактической точностью. Правовые и этические вопросы становятся все более актуальными, а инфраструктура и бизнес-кейсы оказались более сложными, чем ожидалось. Мы явно не на прямом пути к AGI, как надеялись некоторые разработчики. Даже более скромные обещания, такие как автономные ИИ-агенты, сталкиваются с множеством ограничений. Технологии, призванные "приземлить" ИИ на реальные данные и точность, такие как RAG (обогащенное извлечение), все еще сталкиваются с серьезными препятствиями. В конечном итоге LLM по-прежнему часто "галлюцинируют".
Компании теперь сосредоточены на том, как использовать впечатляющие базовые возможности уже доступных LLM. Этот переход от хайпа к реальности подчеркивается шестью ключевыми дебатами, формирующими ландшафт ИИ. Эти дебаты представляют собой линии разлома между фанатиками немедленного достижения суперинтеллекта и теми, кто выступает за более прагматичный подход к внедрению ИИ. Для руководителей предприятий понимание этих дебатов становится критически важным. Существуют серьезные риски для компаний, стремящихся извлечь выгоду из этой мощной технологии, даже если она не является божественной силой, о которой заявляют ее самые ярые сторонники.
Не стоит понимать это неправильно. Большинство руководителей предприятий все еще верят, что технология уже принесла глубокие преимущества. Во время нашего недавнего AI Impact Tour, на котором проводились встречи и мероприятия с компаниями из списка Fortune 500 по всей стране, руководители открыто обсуждали свои усилия по использованию возможностей ИИ.
Но эти шесть дебатов станут центральной темой обсуждений на нашем предстоящем событии VB Transform, запланированном на 9-11 июля в центре Сан-Франциско, в районе SOMA. Мы тщательно подготовили программу на основе обширных бесед с руководителями крупнейших игроков в области ИИ.
Среди спикеров — представители таких индустриальных гигантов, как OpenAI, Anthropic, Nvidia, Microsoft, Google и Amazon, а также лидеры ИИ из компаний Fortune 500, таких как Kaiser Permanente, Walmart и Bank of America.
Ожидаемые живые дебаты и дискуссии на мероприятии Transform обещают пролить свет на эти критические вопросы, предоставляя участникам уникальную возможность взаимодействовать с лидерами, находящимися на передовой внедрения ИИ в бизнес.
Теперь давайте погрузимся в шесть дебатов:
1. Гонка за LLM: видим ли мы плато?
Гонка по разработке самых продвинутых LLM стала определяющей чертой ландшафта ИИ с момента появления GPT-3 от OpenAI. Но по мере вступления во вторую половину 2024 года возникает важный вопрос: закончилась ли гонка за LLM?
Ответ, похоже, положительный, по крайней мере, на данный момент.
Это важно, поскольку различия между ведущими LLM становятся все менее заметными, что означает, что предприятия теперь могут выбирать модели на основе цены, эффективности и соответствия конкретным задачам, а не стремиться к "лучшей" модели.
В 2023 году мы стали свидетелями драматической гонки. OpenAI вырвался вперед с запуском GPT-4 в марте, продемонстрировав значительные улучшения в области рассуждений, многомодальных возможностей и многоязычной подготовки. Аналитики предполагали, что производительность будет продолжать расти по мере подачи большего объема данных в эти модели. Какое-то время казалось, что они были правы.
Но в 2024 году темпы значительно замедлились. Несмотря на расплывчатые обещания от Альтмана о том, что нас ожидают еще сюрпризы, операционный директор компании Мира Мурати в середине июня признала, что у OpenAI нет ничего нового в лабораториях, кроме уже публично доступного.
Сейчас мы наблюдаем четкие признаки стагнации. OpenAI, похоже, столкнулся с wall, а его конкурент Anthropic настиг его, запустив Claude 3.5 Sonnet, которая превосходит GPT-4 по многим показателям. Примечательно, что Claude не смог значительно опередить; его улучшения лишь инкрементальны. Более показательным является то, что Sonnet основан на одной из меньших моделей Anthropic, а не на более крупной модели Opus, что подразумевает, что огромное объемы данных для обучения не обязательно приводят к улучшениям, а что эффективность и донастройка меньших моделей являются ключевыми.
Профессор компьютерных наук Принстонского университета Арвинд Нарайанан на прошлой неделе написал, что популярное мнение о том, что масштабирование моделей ведет к AGI, "основано на серии мифов и заблуждений", и что шансы на то, что это масштабирование приведет к AGI, практически равны нулю.
Для руководителей предприятий это плато имеет значительные последствия. Это означает, что им следует использовать лучшие индивидуальные LLM для конкретных целей, и теперь доступно множество таких LLM. Не существует "волшебного единорога" LLM, который бы правил всеми. Выбирая LLM, предприятия должны учитывать открытые LLM, такие как основанные на Meta’s Llama или IBM’s Granite, что обеспечит больше контроля и упростит донастройку под конкретные задачи.
На VB Transform мы глубже изучим эти динамики с ключевыми спикерами, включая Оливье Годеме, руководителя продукта API в OpenAI; Джареда Каплана, главного ученого и соучредителя Anthropic; Коlette Stallbaumer, генерального менеджера Copilot в Microsoft; Дэвида Кокса, вице-президента по моделям ИИ в IBM; и Ясмин Ахмад, управляющего директора в Google Cloud.
2. Цикл хайпа AGI: пик или спад?
По мере замедления темпов прорывов в LLM возникает более шире вопрос: Достигнут ли мы пика завышенных ожиданий в цикле хайпа AGI?
Наш ответ: да.
Это важно, поскольку компаниям следует сосредоточиться на использовании существующих возможностей ИИ для реальных приложений, а не гоняться за обещанием AGI.
Запуск ChatGPT вызвал волну энтузиазма по поводу возможностей ИИ. Его взаимодействия, приближенные к человеческим, созданные на основе огромных объемов обучающих данных, создавали иллюзию истинного интеллекта. Этот прорыв поднял Альтмана до уровня гуру в мире технологий.
Альтман принял эту роль, делая грандиозные заявления о будущем ИИ. В ноябре 2023 года, выпустив GPT-4 Turbo, он заявил, что это будет выглядеть "старомодно" по сравнению с тем, что они разрабатывают. Он упоминал о возможности достижения AGI в ближайшие несколько лет. Эти заявления вызвали огромный энтузиазм среди тех, кто может быть назван фанатиками Кремниевой долины.
Однако магия начала исчезать. Исключение Альтмана из совета OpenAI в конце 2023 года (хотя и временно) стало первой трещиной в его имидже. По мере входа в 2024 год его уверения в том, что AGI близка, начали казаться менее убедительными; он смягчил свои прогнозы, акцентировав внимание на необходимости дополнительных прорывов. В феврале Альтман заявил, что AGI может потребовать до 7 триллионов долларов инвестиций.
Конкуренты сократили расстояние с ведущей LLM OpenAI, и постоянные улучшения, которые многие предсказывали, не осуществились. Затраты на обработку больших потоков данных возросли, в то время как их частые логические ошибки и "галлюцинации" остались. Это привело к тому, что эксперты, такие как Ян ЛеКун, главный ученый Meta, и другие, заявили, что LLM представляют собой мощное отвлечение и "обочину" от истинного AGI. ЛеКун утверждает, что, хотя LLM впечатляющи в своей способности обрабатывать и генерировать текст, они не обладают фундаментальным пониманием и возможностями рассуждения, которые требуются для AGI.
Это не значит, что хайп полностью исчез. Лихорадка ИИ продолжается в некоторых кругах Кремниевой долины, о чем свидетельствует недавняя страстная четырехчасовая лекция Леопольда Ашенбреннера, бывшего сотрудника OpenAI, который утверждал, что AGI может появиться в течение трех лет.
Однако многие опытные наблюдатели, включая Нарайанана из Принстона, указывают на серьезные недостатки в таких аргументах. Именно этот более устойчивый подход большинство бизнесов следует принять.
В разговоре с лидерами ИИ из компаний, таких как Honeywell, Kaiser Permanente, Chevron и Verizon, я незамедлительно слышал, что реальность внедрения ИИ намного более сложна и оттеночно выражена, чем мог бы предположить хайп.
Хотя руководители все еще полны энтузиазма по поводу его потенциала, важно не поддаваться идее, что ИИ развивается так быстро, что следующее поколение технологии решит проблемы существующего поколения, говорит Стив Джонс, EVP компании CapGemini, которая помогает предприятиям освоить ИИ. "Вы должны внедрять контрольные механизмы сейчас, чтобы более эффективно использовать его: "Неважно, будет ли это 20% или 50% решений, которые будут приниматься ИИ в течение следующих пяти лет", — сказал он в одном из интервью. Суть в том, что ваш карьерный успех будет зависеть от успеха этого алгоритма, добавляет он, и ваша организация ожидает от вас понимания того, как он работает, и настоятельного желания обеспечить успешную работу.
"Существует много ерунды вокруг AGI", — сказал он, ссылаясь на продолжающийся хайп среди разработчиков в Кремниевой долине, которые на самом деле не сосредоточены на развёртывании ИИ в бизнесе. Однако ИИ — это "больше организационные изменения, чем технологические", добавил он, отметив, что компаниям нужно использовать и контролировать реальные, базовые достижения, которые уже предоставляют LLM.
Крупные компании позволяют поставщикам моделей выполнять основную работу по обучению, при этом сосредоточиваясь на доработке моделей под свои цели. Этот более прагматичный подход поддерживается руководителями из областей финансов, здравоохранения и розничной торговли, которых мы отслеживаем.
Например, в JPMorgan Chase, Citi, Wells Fargo и других банках, с которыми я общался, акцент сделан на использовании ИИ для улучшения конкретных банковских функций, что приводит к практическим применениям в области выявления мошенничества, управления рисками и обслуживания клиентов.
В области здравоохранения д-р Эшли Биси, медицинский директор по операциям ИИ в системе больниц NewYork-Presbyterian, также представляет собой пример того, как большие идеи усекаются на более практичные применения ИИ. Хотя она представляет себе ИИ, который знает все о пациенте, больница начинает с более практичных приложений, таких как снижение административной нагрузки на врачей путем записи и транскрибирования визитов пациентов.
Биси отмечает, что многие технические возможности для более амбициозной версии ИИ уже в наличии, но это вопрос настройки внутренних рабочих процессов, что она назвала "управлением изменениями". Это потребует много усилий и тестирования, признала она и добавила, что также потребует обмена идеями между национальными организациями здравоохранения, поскольку это потребует более существенных структурных изменений за пределами ее собственной больницы.
На VB Transform мы обсудим это напряжение между хайпом AGI и практической реальностью со спикерами из разных уголков индустрии, предоставляя участникам ясное представление о реально существующих возможностях ИИ и том, как их можно эффективно использовать в бизнесе. Спикеры, такие как Джаред Каплан, главный ученый Anthropic, расскажут о текущем состоянии возможностей ИИ и предстоящих вызовах. Мы также услышим от лидеров бизнеса, которые успешно ориентируются в этом пост-хайповом ландшафте, включая Нхун Хо из Intuit и Билла Брауна, CIO Chevron.
3. Узкое место GPU: реалии инфраструктуры
Существует ли узкое место для GPU, которое мешает масштабированию GenAI? Наш ответ: да, но это более сложный вопрос, чем предполагали заголовки.
Почему это важно: предприятиям необходимо стратегически планировать свои инвестиции в инфраструктуру ИИ, балансируя непосредственные нужды с долгосрочной масштабируемостью.
Наплыв разработок ИИ создал беспрецедентный спрос на специализированное оборудование, особенно на GPU (графические процессоры), которые помогают запускать приложения ИИ. Nvidia, ведущий производитель GPU, увидела, как ее рыночная стоимость взлетела до более чем 3 триллионов долларов, став одной из самых ценных компаний в мире. Этот спрос привел к нехватке, увеличив затраты и расширив сроки ожидания для этой критически важной ИИ-инфраструктуры.
Тем не менее узкое место не является единообразным для всех приложений ИИ. В то время как обучение крупных моделей требует огромной вычислительной мощности, многие корпоративные кейсы сосредоточены на выводе — запуске предварительно обученных моделей для генерации выходных данных. Для этих приложений требования к оборудованию могут быть менее значительными.
Джонатан Росс, генеральный директор Groq, компании, разрабатывающей инновационные ИИ-чипы, утверждает, что вывод можно эффективно осуществлять на оборудовании без GPU. Языковые процессоры Groq (LPU) обещают значительные выгоды по производительности для определенных задач ИИ. Другие стартапы также входят в эту область, бросая вызов доминированию Nvidia и потенциально уменьшая узкое место GPU.
Несмотря на эти изменения, общий тренд указывает на увеличение вычислительных потребностей. ИИ-лаборатории и облачные компании гипермасштабирования, которые обучают продвинутые модели и хотят оставаться лидерами, строят массивные дата-центры, некоторые из которых вступают в то, что я называю "клубом 500K GPU". Эта гонка вооружений вызывает интерес к альтернативным технологиям, таким как квантовые вычисления, фотоника и даже синтетическая ДНК для хранения данных, чтобы поддержать масштабирование ИИ.
Тем не менее, большинство предприятий не ощущают себя ограниченными по доступности GPU. Большинство из них просто используют облака Azure, AWS и Google GCP, позволяя этим крупным игрокам нести затраты на развертывание GPU.
Например, Intuit, одна из первых компаний, которая серьезно приняла генеративный ИИ в прошлом году. Вице-президент компании по ИИ Нхун Хо сообщила мне на прошлой неделе, что компании не нужны последние GPU для своей работы. "Существует множество устаревших GPU, которые работают отлично", — сказала Хо. "Мы используем технологии шестилетней давности... и это работает прекрасно". Это предполагает, что для многих корпоративных приложений креативные решения и эффективные архитектуры могут смягчить проблему с оборудованием.
На VB Transform мы углубимся в эти инфраструктурные проблемы. Спикеры, такие как Джонатан Росс из Groq, Ник Спирин из Nvidia, Джейми Гарсия, директор по квантовым алгоритмам IBM, и Керк Брезникер, главный архитектор HPE, обсудят развивающийся ландшафт аппаратного обеспечения ИИ. Мы также услышим от облачных провайдеров, таких как AWS, которые работают над программными оптимизациями для максимизации существующих аппаратных возможностей.
4. Права на контент и обучение LLM: правовые мины впереди
Является ли все содержимое в интернете бесплатным для обучения LLM?
Наш ответ: нет, и это представляет собой значительные юридические и этические проблемы.
Почему это важно: предприятиям следует осознавать потенциальные вопросы авторского права и конфиденциальности при развертывании ИИ-моделей, поскольку юридическая среда стремительно меняется.
Данные, используемые для обучения LLM, стали спорным вопросом, имеющим существенные последствия для разработчиков ИИ и конечных пользователей. The New York Times и Центр расследовательской журналистики подали иски против OpenAI, alleging unauthorized использование своего контента для обучения, что является лишь верхушкой айсберга.
Этот юридический спор поднимает важный вопрос: имеют ли компании ИИ право получить доступ и использовать онлайн-контент для обучения без явного разрешения или выплаты? Ответ на этот вопрос неясен, и юридические эксперты считают, что может потребоваться до десятилетия, чтобы эта проблема была полностью разрешена в судах.
Хотя многие компании ИИ предлагают защиту от рисков для предприятий, использующих их услуги, это не полностью защищает бизнес от возможных юридических рисков. Ситуация усложняется появлением поисковых систем и инструментов суммирования на основе ИИ. Например, Perplexity AI столкнулся с критикой за суммирование защищенных авторским правом статей, что привело к жалобе от Forbes о нарушении авторских прав.
Как основатель медиа, я заинтересован в этом дебате. Модель нашего бизнеса, как и многих издателей, основывается на визитах на страницах и рекламе. Если модели ИИ могут свободно суммировать наш контент, не привлекая трафик на наш сайт, это угрожает нашей способности монетизировать нашу работу. Это не только беспокойство для компаний медиа, но и для любого создателя контента.
Любая компания, использующая модели ИИ, обученные на веб-данных, потенциально может столкнуться с юридическими проблемами. Бизнесам важно понимать происхождение данных, использованных для обучения ИИ моделей, которые они развертывают. Это также имеет значение для финансовых и банковских компаний, которые сталкиваются с серьезными regulations вокруг конфиденциальности и использования личной информации.
Некоторые компании принимают проактивные меры для решения этих вопросов. В области обучения OpenAI спешит заключить соглашения с издателями и другими компаниями. Как сообщается, Apple заключила соглашения с новостными издателями на использование их контента для обучения ИИ. Это может задать прецедент на то, как компании ИИ и создатели контента смогут сотрудничать в будущем.
На VB Transform мы подробно обсудим эти правовые сложности. Аравинд Сринивас, CEO Perplexity AI, поделится своими соображениями о том, как преодолевать эти проблемы. Мы также услышим от руководителей компаний, которые рассматривают эти вопросы в своих стратегиях развития ИИ.
5. Приложения Gen AI: трансформация краев, а не ядер
Будут ли приложения Gen AI разрушать основные предложения большинства компаний?
Наш ответ: нет, пока нет.
Почему это важно: хотя ИИ преобразует, его влияние в настоящее время более заметно в улучшении существующих процессов, а не в революции основных бизнес-моделей.
Нарратив вокруг ИИ часто подразумевает немедленный, полон разрушение операций предприятий. Однако реальность на местах показывает другую картину. Большинство компаний добиваются успеха, применяя ИИ к периферийным функциям, а не полностью изменяя свои основные предложения.
Наиболее распространенные приложения включают:
- Чат-ботов для поддержки клиентов
- Ассистентов для сотрудников
- Генеративные маркетинговые материалы
- Инструменты генерации и отладки кода
Эти приложения обеспечивают значительный рост продуктивности и операционные улучшения. Тем не менее, они еще не приводят к массовому увеличению доходов или изменениям в бизнес-моделях, которые некоторые предсказывали.
Руководители розничных компаний, таких как Albertsons и AB InBev, сообщили мне, что они активно ищут способы повлиять на свою основную деятельность, экспериментируя с "крупными моделями приложений" для предсказания покупательских паттернов. В фармацевтической индустрии существует надежда, что ИИ может ускорить открытие лекарств, хотя прогресс был медленнее, чем многие представляют.
Интуит представляет собой интересный пример. Его бизнес, основанный на налоговом коде и терминологии, ближе к мощным языковым приложениям, которые предоставляют LLM, что объясняет, почему Intuit быстро вышла вперед, объявив о своей операционной системе генеративного ИИ (GenOS) год назад. Она интегрирует AI-ассистентов в такие продукты, как TurboTax, QuickBooks и Mailchimp. Тем не менее, использование ИИ сосредоточено на помощи клиентам, как и у большинства других.
Перспектива Apple интересна. Они рассматривают ИИ как функцию, а не продукт — по крайней мере, пока. Эта позиция отражает текущее состояние ИИ во многих предприятиях: мощный инструмент для улучшения, а не отдельная революция.
Каролина Арнольд, исполнительный вице-президент StateStreet, крупного банка, базирующегося в Бостоне, иллюстрирует это мнение, что генеративный ИИ направлен на увеличение продуктивности, но не является основным источником дохода. На нашем мероприятии в Бостоне в марте она выделила потенциал ИИ: "То, что позволяет делать ген ИИ, — это взаимодействовать очень естественным образом с огромным количеством данных, на лету, и строить сценарии ... так, как это занимало бы гораздо больше времени традиционным путем."
Хотя новый чат-бот банка, насыщенный LLM, быстро обошел существующую службу поддержки, это не было без проблем. Чат-бот иногда выдавал "странные ответы", требуя доработки. Четыре месяца спустя State Street еще не выпустил свои приложения публично, что подчеркивает сложности принятия генеративного ИИ даже на краях.
На VB Transform мы исследуем эту нюансированную реальность с такими спикерами, как Нхун Хо, вице-президент по ИИ в Intuit, Билл Браун, CIO Chevron, Дэниел Янг, вице-президент по ИИ Kaiser Permanente, Дезире Госби, вице-президент Walmart и Кристиан Митчелл, EVP Northwestern. Они расскажут о том, как внедрят ИИ в свои операции и где они видят самые значительные влияния.
6. ИИ-агенты: следующая граница или преувеличенный хайп?
Являются ли ИИ-агенты будущим ИИ?
Наш ответ: да, но с оговорками.
Почему это важно? ИИ-агенты представляют собой потенциальный скачок вперед в автоматизации и принятии решений, но их текущие возможности часто преувеличены.
Концепция ИИ-агентов — это автономные системы, которые могут выполнять задачи или принимать решения с минимальным вмешательством человека. Они захватили воображение многих в мире технологий. Некоторые, такие как бывший сотрудник OpenAI Леопольд Ашенбреннер, предсказывают недалекое будущее, где сотни миллионов ИИ-агентов, обладающих AGI, управляют различными аспектами нашего мира. Это, в свою очередь, сократит десятилетия алгоритмического прогресса до года и менее: "Мы быстро перейдем от человеческого уровня к значительно суперчеловеческим ИИ-системам", — утверждает он.
Тем не менее, большинство людей, с которыми я говорил, считают это пустой мечтой. Текущая ситуация с ИИ-агентами на самом деле намного скромнее, чем даже предполагали энтузиасты Кремниевой долины всего год назад, когда восторг по поводу Auto-GPT, фреймворка агентов, который якобы позволит вам делать всевозможные вещи, в том числе открыть свою собственную компанию, охватывал мир. Хотя существуют многообещающие применения в таких областях, как обслуживание клиентов и автоматизация маркетинга, полностью автономные ИИ-агенты все еще находятся на начальной стадии и сталкиваются со многими проблемами, связанными с выполнением своих задач.
Другие новые приложения ИИ-агентов включают:
- Планирование и бронирование путешествий
- Поиск и покупка товаров в электронной коммерции
- Автоматизированные кодовые помощники
- Финансовые торговые алгоритмы
Эти агенты часто используют ведущий LLM для координации процесса, а подагенты занимаются конкретными задачами, такими как веб-поиски или платежи. Тем не менее, они далеки от общего назначения и полностью автономных систем, которые некоторые предполагают.
Подход Intuit к ИИ-агентам говорит о многом. Нхун Хо сообщила, что, хотя Intuit создала инфраструктуру для поддержки агентных фреймворков, они приостановили инвестиции в этой области. Intuit ждет, когда технология созреет, перед полным ее внедрением в свои продукты.
Этот осторожный подход отражает более широкую отраслевую позицию. Хотя ИИ-агенты показывают обещания, они еще не достаточно надежны или универсальны для широкого внедрения в предприятия на ключевых ролях.
На VB Transform мы исследуем текущее состояние и будущее потенциал ИИ-агентов. Спикеры, такие как Итамар Фридман, CEO Codium AI, разрабатывающей автономного кодового агента, и Джерри Лиу, CEO LlamaIndex, поделятся своими взглядами на эту развивающуюся технологию.
Заключение: Ориентиры в ландшафте ИИ в 2024 и далее
Изучив шесть критических дебатов о ИИ, формирующих стратегию предприятий в 2024 году, вырисовывается ясная тема: переход от хайпа к практической реализации. Ключевые выводы для руководителей предприятий:
- Гонка за LLM достигла плато: сосредоточьтесь на выборе моделей на основе конкретных задач, стоимости и легкости интеграции, а не на поисках "лучшей" модели.
- Хайп AGI остывает, практический ИИ набирает популярность: немедленный акцент должен быть на использовании существующих возможностей ИИ для ощутимых бизнес-результатов.
- Проблемы инфраструктуры требуют креативных решений: исследуйте альтернативные аппаратные решения и оптимизируйте рабочие процессы ИИ для максимальной эффективности существующего оборудования.
- Юридические и этические аспекты имеют первостепенное значение: тщательно проверяйте ИИ-провайдеров и понимайте происхождение их обучающих данных, чтобы смягчить юридические риски.
- Сосредоточьтесь на улучшении основных функций, а не на их замене: ищите возможности интеграции ИИ в поддержку клиентов, помощь сотрудникам и улучшение операционной эффективности.
- ИИ-агенты показывают обещания, но еще не готовы для массового использования: создайте инфраструктуру для поддержки агентных фреймворков, но будьте готовы подождать, пока технология созреет перед полным внедрением.
Истинная революция ИИ не происходит в исследовательских лабораториях, стремящихся к AGI, а в офисах по всему миру, где ИИ интегрируется в повседневные операции. Как сказал Стив Джонс из Capgemini: "ИИ — больше организационное изменение, чем технологическое".
Приближаясь к VB Transform и ко второй половине года, помните, что наиболее ценным внедрением ИИ может быть то, которое не попадает в заголовки. Это может быть решение, которое экономит вашей команде по обслуживанию клиентов несколько часов каждый день или помогает вашим разработчикам быстрее находить ошибки. Вопрос уже не в том, "Изменит ли ИИ все?", а в том, "Как мы можем использовать ИИ, чтобы делать то, что мы делаем, лучше?" Именно это выделит лидеров ИИ от аутсайдеров в предстоящие годы.
И это то обсуждение, которое, я уверен, будет доминировать на VB Transform.