2 мин. чтения
7/26/2024 11:04:03 AM

Обрушение модели LLMS

Article Preview Image Высокое описание механизма обратной связи в процессе обучения.Кредит: природа (2024).Doi: 10.1038/s41586-024-07566-y

Генеративные инструменты искусственного интеллекта, такие как крупные языковые модели (LLMS), выросли в популярности и были в основном обучены с использованием человеческих входов.Однако, поскольку эти модели ИИ продолжают размножаться по всему Интернету, компьютерный контент может использоваться для обучения других моделей ИИ-или себя-в рекурсивном цикле.

Илия Шумайлов и его коллеги представляют математические модели, чтобы проиллюстрировать, как модели ИИ могут испытывать коллапс модели.Авторы демонстрируют, что ИИ может упускать из виду некоторые выходы (например, менее распространенные линии текста) в учебных данных, заставляя его обучаться только на части набора данных.

Шумайлов и его коллеги также исследовали, как модели ИИ реагировали на учебный набор данных, который был преимущественно создан с помощью искусственного интеллекта.Они обнаружили, что кормление данных, сгенерированных AI, заставляет последовательных поколений ухудшаться в их способности учиться, что в конечном итоге приводит к коллапсу модели.

Почти все протестированные рециртируемые языковые модели, которые они тестировали, имели тенденцию отображать повторяющиеся фразы.Например, тест был запущен с использованием текста о средневековой архитектуре в качестве исходного ввода, а по девятому поколению вывод представлял собой список джекраббитов.

Авторы предлагают, чтобы обрушение модели является неизбежным результатом моделей искусственного интеллекта, которые используют учебные наборы данных, созданные предыдущими поколениями.Чтобы успешно обучить искусственный интеллект с собственными выходами, Шумайлов и его коллеги предполагают, что обучение модели с помощью AI-генерируемых данных не является невозможным, но фильтрация этих данных должна быть воспринята всерьез.

В то же время технические фирмы, которые полагаются на созданный человеком контент, могут быть в состоянии обучать моделей ИИ, которые более эффективны для своих конкурентов.

More information: Ilia Shumailov et al, AI models collapse when trained on recursively generated data, Nature (2024). DOI: 10.1038/s41586-024-07566-y

Получи бесплатную еженедельную рассылку со ссылками на репозитории и лонгриды самых интересных историй о стартапах 🚀, AI технологиях 👩‍💻 и программировании 💻!
Присоединяйся к тысячам читателей для получения одного еженедельного письма

Подписывайся на нас:

Нашли ошибку в тексте? Напишите нам.

Добавляй ЛРНЧ в свою ленту Google Новостей.
Читайте далее 📖

Алгоритм модели глубокого обучения для анализа настроений

8/8/2024 · 2 мин. чтения

Алгоритм модели глубокого обучения для анализа настроений

Алгоритмы ИИ, вдохновленные природой, предлагают новые решения сложных проблем

8/2/2024 · 2 мин. чтения

Алгоритмы ИИ, вдохновленные природой, предлагают новые решения сложных проблем

*Facebook, Instagram, Meta - запрещенные в РФ организации.