Обрушение модели LLMS
Высокое описание механизма обратной связи в процессе обучения.Кредит: природа (2024).Doi: 10.1038/s41586-024-07566-y
Генеративные инструменты искусственного интеллекта, такие как крупные языковые модели (LLMS), выросли в популярности и были в основном обучены с использованием человеческих входов.Однако, поскольку эти модели ИИ продолжают размножаться по всему Интернету, компьютерный контент может использоваться для обучения других моделей ИИ-или себя-в рекурсивном цикле.
Илия Шумайлов и его коллеги представляют математические модели, чтобы проиллюстрировать, как модели ИИ могут испытывать коллапс модели.Авторы демонстрируют, что ИИ может упускать из виду некоторые выходы (например, менее распространенные линии текста) в учебных данных, заставляя его обучаться только на части набора данных.
Шумайлов и его коллеги также исследовали, как модели ИИ реагировали на учебный набор данных, который был преимущественно создан с помощью искусственного интеллекта.Они обнаружили, что кормление данных, сгенерированных AI, заставляет последовательных поколений ухудшаться в их способности учиться, что в конечном итоге приводит к коллапсу модели.
Почти все протестированные рециртируемые языковые модели, которые они тестировали, имели тенденцию отображать повторяющиеся фразы.Например, тест был запущен с использованием текста о средневековой архитектуре в качестве исходного ввода, а по девятому поколению вывод представлял собой список джекраббитов.
Авторы предлагают, чтобы обрушение модели является неизбежным результатом моделей искусственного интеллекта, которые используют учебные наборы данных, созданные предыдущими поколениями.Чтобы успешно обучить искусственный интеллект с собственными выходами, Шумайлов и его коллеги предполагают, что обучение модели с помощью AI-генерируемых данных не является невозможным, но фильтрация этих данных должна быть воспринята всерьез.
В то же время технические фирмы, которые полагаются на созданный человеком контент, могут быть в состоянии обучать моделей ИИ, которые более эффективны для своих конкурентов.
More information: Ilia Shumailov et al, AI models collapse when trained on recursively generated data, Nature (2024). DOI: 10.1038/s41586-024-07566-y
Нашли ошибку в тексте? Напишите нам.