Миссия Tenyx: Преодоление катастрофической потери памяти в крупных языковых моделях для повышения эффективности ИИ.

Чтобы максимально использовать преимущества крупных языковых моделей (LLMs), предприятия должны адаптировать их на основе специфических данных. Этот процесс улучшает способность модели генерировать релевантные результаты. Однако, настройка предобученных моделей вносит критическую проблему: корректировка весов для различных распределений данных может привести к "катастрофическому забвению", при котором модель теряет ранее приобретенные знания. Это ухудшает производительность и способность к рассуждению LLM.

Компания Voice AI Tenyx анонсировала решение для настройки, направленное на решение этой проблемы. Платформа позволяет бизнесу адаптировать LLM под свои уникальные потребности, не жертвуя базовыми знаниями или мерами безопасности. "Катастрофическое забвение — давняя проблема в сообществе машинного обучения," заявил Итамар Арель, генеральный директор и основатель Tenyx. "Ранее предполагалось, что модели могут непрерывно обучаться на новых данных, сохраняя старую информацию."

Риски настройки

Арель подчеркивает, что настройка становится все более важной для применения LLM в бизнесе. Тем не менее, дата-сайентисты часто не имеют полного доступа к исходным обучающим наборам данных, а традиционные методы настройки не помогают избежать эффекта забвения. Это может привести к утрате ключевых возможностей и подвергнуть организации риску получения вредного или предвзятого контента.

Например, использование LLaMA 7B в качестве чат-бота для обслуживания клиентов — распространенное решение — требует его настройки на основе типичных взаимодействий с клиентами. Стандартные методы, такие как Low-Rank Adaptation (LoRA), могут невольно привести к потере ценных знаний, таких как точные ответы на вопросы типа "Какое расстояние от отеля до аэропорта?" или понимание контекста из заявлений вроде "Я приеду 7 декабря на четыре ночи." "Настроенная модель может быть отличной в конкретных задачах, но может давать неверные или предвзятые ответы по более широким вопросам," отметил Арель.

Ограничения Low-Rank Adaptation

Хотя LoRA популярна благодаря своей вычислительной эффективности, Арель объясняет, что она не была разработана для решения проблемы катастрофического забвения. Когда настройка смещает распределение данных от оригинала, возникают непредсказуемые искажения. "Наши исследования показывают, что, несмотря на преимущества LoRA, она несет те же риски потери знаний и способности к рассуждению," заявил Арель. Сложность моделей также усложняет выявление и исправление этих искажений. Более того, традиционные методы настройки могут ослабить протоколы безопасности, установленные через обучение с использованием обратной связи от человека (RLHF), что критически важно для предотвращения предвзятых выводов. "RLHF также является процессом обучения и, следовательно, подвержен влиянию во время настройки," подчеркнул Арель.

Неэффективности текущих стратегий смягчения

В настоящее время предприятия пытаются справляться с катастрофическим забвением, полагаясь на множество инженеров машинного обучения, чтобы ограничить настройку и использовать инженерную обработку запросов для достижения оптимальных результатов. Однако этот подход нестабилен, дорог и недостаточно понятен в том, когда и почему он работает. Кроме того, оценка знаний и способности к рассуждению во время настройки, часто с помощью ручного вмешательства, усложняет процесс без возможностей автоматизации.

Подход Tenyx к настройке

Инновационный метод настройки Tenyx позволяет определить, какие параметры модели можно обновить для обучения на новых данных, сохраняя большинство предыдущих отображений входа и выхода. Их платформа гарантирует, что обновления во время настройки не нарушают способность модели обрабатывать исходные данные. "Анализируя обученную LLM, наш метод определяет оптимальные веса для обновления, позволяя обучаться на новых данных, минимизируя катастрофическое забвение," объяснил Арель. Подход Tenyx использует новаторскую математическую интерпретацию геометрических представлений, сформулированных во время начального обучения LLM, эффективно сохраняя ранее усвоенную информацию, одновременно учитывая изменения.

Ключевым моментом является то, что метод Tenyx сохраняет защиту RLHF и соответствует нормативным требованиям, включая исполнительно указание Белого дома о безопасном, защищенном и надежном ИИ.

Результаты метода настройки Tenyx

В пилотном исследовании, оценившем как популярные корпоративные, так и открытые алгоритмы настройки, Tenyx продемонстрировала значительные преимущества в безопасности, эффективности и сохранении знаний:

- Безопасность: Tenyx добилась 11% снижения рисков, превзойдя результаты OpenAI (-66%), Together AI (-94%) и LoRA (-91%).

- Эффективность: хотя GPT 3.5 Turbo от OpenAI показал более высокую первоначальную эффективность благодаря своим параметрам, Llama-2 7B от Tenyx превзошла ожидаемые результаты после настройки.

- Знания: Tenyx зарегистрировала всего 3% потерь из-за катастрофического забвения, по сравнению с 10% у OpenAI, 40% у Together AI и 43% у LoRA.

"Катастрофическое забвение остается признанным препятствием в глубоком обучении, влияющим даже на самые современные модели," отметил Ноа Гудман, доцент Стэнфордского университета. "Когда модели настраиваются на новые специализированные данные, они обычно улучшают производительность в этой области, но рискуют изменить уже установленные способности." Гудман добавил: "У Tenyx есть сильная исследовательская команда, изучающая инновационные решения для решения этой сложной задачи."

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles