4 мин. чтения
9/22/2023 11:40:01 AM

Крупные языковые модели разрабатывают более эффективные подсказки

Article Preview Image Обзор Opro Framework.Учитывая мета-продукцию в качестве ввода, LLM генерирует новые решения для целевой функции, тогда новые решения и их оценки добавляются в мета-промпт для следующего этапа оптимизации.Мета-промп содержит пары баллов решений, полученные на протяжении всего процесса оптимизации, а также описание естественного языка задачи и (в оперативной оптимизации) несколько образцов из задачи.См. Рисунок 3 для образца мета-продукта для быстрого оптимизации.Кредит: Arxiv (2023).Doi: 10.48550/arxiv.2309.03409

Одним из основных драйверов эффективных задач большой языковой модели (LLM) является приглашение.

Чтобы быть наиболее эффективным, подсказка должна быть четкой и хорошо отнесенной к задаче.

Исследователи посвящены значительным ресурсам, чтобы обеспечить оптимизирование подсказков, чтобы получить наилучший результат.Неправильное использование ключевых слов, неловких формулирования, смутных инструкций или отсутствия соответствующего контекста может снизить качество результатов.

Программисты всегда пытаются создать лучшие способы сформулировать подсказки.Исследователи в Google DeepMind недавно рассмотрели новый подход: что, если крупные языковые модели помогли построить подсказки?

Они придумали процесс под названием Opro, оптимизация, подсказывая.

В статье, опубликованной 7 сентября на сервере Pre-Print Arxiv, исследователь DeepMind Chengrun Yang объяснил, что Opro является «простой и эффективной подходом» для назначения задач оптимизации LLM на естественном языке.

«На каждом этапе оптимизации, - сказал Ян, - LLM генерирует новые решения из подсказки, которая содержит ранее сгенерированные решения со своими значениями, затем новые решения оцениваются и добавляются в подсказку для следующего шага оптимизации».

Такие итеративные решения обычно используются в задачах оптимизации, но формулировка, как правило, была разработана людьми, которые в значительной степени полагаются на математические модели.

Opro использует новую способность LLMS понимать инструкции по естественному языку.

Он создает подсказки, четко определяя проблему и дает примеры аналогичных задач и инструкций для итеративного подхода к решению.То есть, поскольку LLM предлагает решения для каждого шага в процессе оптимизации, подсказка изменяется для включения этих результатов.Процесс повторяется до тех пор, пока не будет достигнуто оптимальное решение.

«Оптимизация с LLMS позволяет быстро адаптировать к различным задачам путем изменения описания проблемы в приглашении, и процесс оптимизации может быть настроен, добавив инструкции для указания желаемых свойств решений», - сказал Ян.

Исследователи проверили свой подход к двум популярным типам проблем: линейная регрессия и проблему коммивояжного продавца.Результаты были многообещающими, но с дополнительным прикосновением - они обнаружили значительное улучшение.

Линейный подход-это статистическая модель, отображающая взаимосвязь между текстовыми и числовыми переменными.Он может использоваться в финансовом прогнозировании, например, путем прогнозирования цен на акции на основе новостей с Уолл -стрит, или он может рекомендовать фильмы Netflix на основе обзоров программирования пользователя.

Сценарий путешествующего продавца - это классическая проблема оптимизации, которая предоставляет список городов, а затем определяет самый короткий и самый быстрый маршрут, который продавец должен будет выбрать для посещения каждого города без повторения.

ОПро выступил превосходно.Он достиг результатов «наравне с некоторыми эвристическими алгоритмами ручной работы», сказал Ян.

«Но с дополнительным повышением, оптимизированные подсказки превосходят [ED], разработанные человеком… с значительным отрывом, иногда более 50%»,-сказал Ян.

Поощрение.

Команда DeepMind обнаружила, что когда фразы, выражающие поддержку, были прикреплены к подсказкам, были достигнуты лучшие результаты.

Такие фразы включали в себя: «Сделайте глубокий вдох и подумайте над этой проблемой пошаговой», «Давайте разберемся с этим пошаговым способом, чтобы убедиться, что у нас есть правильный ответ» и «Давайте рассчитаем наш путьк решению. ”

Исследователи не подробно рассказали о том, почему такие поддерживающие выражения дали лучшие результаты, хотя можно предположить, что LLMS были обучены данным, содержащим многочисленные экземпляры выражений, связанных с тщательным изучением и обработкой соответствующих данных.

«Оптимизация вездесущей», - сказал Ян.«В то время как алгоритмы, основанные на производных, были мощными инструментами для различных проблем, отсутствие градиента устанавливает проблемы во многих реальных приложениях… с развитием методов подсказки, LLMS достигли впечатляющих результатов в различных доменах».

Больше информации: Chengrun Yang и др., Большие языковые модели в качестве оптимизаторов, Arxiv (2023).Doi: 10.48550/arxiv.2309.03409

Получи бесплатную еженедельную рассылку со ссылками на репозитории и лонгриды самых интересных историй о стартапах 🚀, AI технологиях 👩‍💻 и программировании 💻!
Присоединяйся к тысячам читателей для получения одного еженедельного письма

Подписывайся на нас:

Нашли ошибку в тексте? Напишите нам.

Добавляй ЛРНЧ в свою ленту Google Новостей.
Читайте далее 📖

ИИ чат-боты делятся некоторыми человеческими предубеждениями

4/11/2024 · 4 мин. чтения

ИИ чат-боты делятся некоторыми человеческими предубеждениями

Этика ИИ игнорирует детей, говорят исследователи

3/21/2024 · 4 мин. чтения

Этика ИИ игнорирует детей, говорят исследователи