4 мин. чтения
6/27/2023 6:33:00 AM

Исследование устанавливает теорию сверхпараметризации в квантовых нейронных сетях

«Мы считаем, что наши результаты будут полезны при использовании машинного обучения для изучения свойств квантовых данных, таких как классификация различных фаз материи в исследованиях квантовых материалов, что очень сложно на классических компьютерах», — сказал Диего Гарсия-Мартин, научный сотрудник Лос-Аламосской национальной лаборатории. Он является соавтором новой статьи команды из Лос-Аламоса о технике, опубликованной в Nature Computational Science.

Машинное обучение, или искусственный интеллект, обычно включает в себя обучение нейронных сетей обработке информации — данных — и обучению тому, как решать заданную задачу. В двух словах, можно думать о нейронной сети как о блоке с ручками или параметрами, который принимает данные в качестве входных данных и выдает выход, зависящий от конфигурации ручек.

«На этапе обучения алгоритм обновляет эти параметры по мере обучения, пытаясь найти их оптимальную настройку», — сказал Гарсия-Мартин. «Как только оптимальные параметры будут определены, нейронная сеть должна иметь возможность экстраполировать то, что она узнала из обучающих экземпляров, на новые и ранее невидимые точки данных».

Как классический, так и квантовый ИИ имеют общую проблему при обучении параметров, поскольку алгоритм может достичь неоптимальной конфигурации при обучении и заглохнуть.

Прирост производительности

Чрезмерная параметризация, хорошо известная концепция в классическом машинном обучении, которая добавляет все больше и больше параметров, может предотвратить эту остановку.

Последствия чрезмерной параметризации в моделях квантового машинного обучения до сих пор были плохо изучены. В новой статье команда из Лос-Аламоса устанавливает теоретическую основу для прогнозирования критического числа параметров, при которых модель квантового машинного обучения становится чрезмерно параметризованной. В определенный критический момент добавление параметров приводит к скачку производительности сети, и модель становится значительно проще в обучении.

«Установив теорию, лежащую в основе сверхпараметризации в квантовых нейронных сетях, наше исследование прокладывает путь к оптимизации процесса обучения и достижению повышенной производительности в практических квантовых приложениях», — объяснил Мартин Ларокка, ведущий автор рукописи и научный сотрудник в Лос-Аламосе.

Используя преимущества аспектов квантовой механики, таких как запутанность и суперпозиция, квантовое машинное обучение обещает гораздо большую скорость или квантовое преимущество, чем машинное обучение на классических компьютерах.

Image 1 Сверхпараметризация в квантовых нейронных сетях (QNN). а) Описание квантовой схемы QNN. Имея низкое (большое) число параметров, человек не может (не может) исследовать все соответствующие направления в гильбертовом пространстве, и, таким образом, QNN недопараметризован (перепараметризован). б) Серая поверхность соответствует неограниченному ландшафту функции потерь. Недостаточно параметризованный QNN исследует низкоразмерный разрез функции потерь (1D-разрез по красным линиям). Здесь оптимизатор может попасть в ловушку ложных локальных минимумов (синий сегмент), которые негативно влияют на оптимизацию параметров. Увеличивая количество параметров, превышающих некоторый порог M, можно исследовать более многомерный разрез ландшафта (2D-разрез над зеленой областью). Как показано, некоторые предыдущие ложные локальные минимумы соответствуют седловым точкам (синий сегмент), и оптимизатор может избежать ложной ловушки. Кредит: arXiv DOI: 10.48550/arxiv.2109.11676c

Как избежать ловушек в ландшафте машинного обучения

Чтобы проиллюстрировать выводы команды Лос-Аламоса, Марко Сересо, старший научный сотрудник и квантовый теоретик в лаборатории, описал мысленный эксперимент, в котором турист, ищущий самую высокую гору в темном ландшафте, представляет собой тренировочный процесс. Турист может шагать только в определенных направлениях и оценивает свой прогресс, измеряя высоту с помощью ограниченной системы GPS.

По словам Сересо, в этой аналогии количество параметров в модели соответствует направлениям, доступным для движения туриста. «Один параметр позволяет двигаться вперед и назад, два параметра позволяют боковое движение и так далее», — сказал он. Ландшафт данных, вероятно, будет иметь более трех измерений, в отличие от нашего гипотетического туристического мира.

Из-за слишком малого количества параметров пешеход не может тщательно исследовать и может принять небольшой холм за самую высокую гору или застрять в равнинной области, где любой шаг кажется бесполезным. Однако по мере увеличения количества параметров пешеход может двигаться в большем количестве направлений в более высоких измерениях. То, что изначально казалось местным холмом, может оказаться возвышенной долиной между вершинами. Благодаря дополнительным параметрам турист избегает попадания в ловушку и находит истинную вершину или решение задачи.

Подробнее: Martín Larocca et al, Theory of overparametrization in quantum neural networks, Nature Computational Science (2023). DOI: 10.1038/s43588-023-00467-6. 🔗

www.nature.com/articles/s43588-023-00467-6 🔗. DOI: 10.48550/arxiv.2109.11676

Получи бесплатную еженедельную рассылку со ссылками на репозитории и лонгриды самых интересных историй о стартапах 🚀, AI технологиях 👩‍💻 и программировании 💻!
Присоединяйся к тысячам читателей для получения одного еженедельного письма

Подписывайся на нас:

Нашли ошибку в тексте? Напишите нам.

Добавляй ЛРНЧ в свою ленту Google Новостей.
Читайте далее 📖

Нейролянджело - пробуди цифрового Микеланджело с помощью смартфона

7/15/2023 · 4 мин. чтения

Нейролянджело - пробуди цифрового Микеланджело с помощью смартфона

DeepMind преуспел в скорости сортировки

6/13/2023 · 4 мин. чтения

DeepMind преуспел в скорости сортировки