2 мин. чтения
1/13/2024 10:58:30 AM

Ученые показывают, как мелкий механизм обучения, используемый мозгом, может конкурировать с глубоким обучением

Article Preview Image Кредит: Pixabay/CC0 Общественный домен

Методы обучения нейронной сети вытекают из динамики мозга.Однако эти два сценария, обучение мозга и глубокое обучение, по сути различны.Одним из наиболее заметных различий является количество слоев, которые обладают каждый из них.

Архитектуры глубокого обучения обычно состоят из многочисленных слоев, которые можно увеличить до сотен, что позволяет эффективно изучать сложные задачи классификации.В отличие от этого, мозг состоит из очень мало слоев, но, несмотря на ее мелкую архитектуру, шумную и медленную динамику, он может эффективно выполнять сложные задачи классификации.

Критическим вопросом, управляющим новым исследованием, является возможный механизм, лежащий в основе эффективного мелкого обучения мозга, что позволяет ему выполнять задачи классификации с той же точностью, что и глубокое обучение.В статье, опубликованной в Physica A: Статистическая механика и ее приложения, исследователи из университета Бар-Илан в Израиле показывают, как такие мелкие механизмы обучения могут конкурировать с глубоким обучением.

«Вместо глубокой архитектуры, как и небоскреб, мозг состоит из широкой мелкой архитектуры, больше похоже на очень широкое здание с очень небольшим количеством этажей»,-сказал профессор Идо Кантер из Департамента физики Бар-Илан и Гонды (Голдшмид)Междисциплинарный центр исследований мозга, который руководил исследованием.

«Возможность правильно классифицировать объекты увеличивается, когда архитектура становится все глубже, с большим количеством слоев. Напротив, мелкий механизм мозга указывает на то, что более широкая сеть лучше классифицирует объекты», - сказал Ронит Гросс, студент и один из ключевых участников этогоработа.«Более широкие и более высокие архитектуры представляют собой два дополнительных механизма», - добавила она.

Тем не менее, реализация очень широких мелких архитектур, имитирующая динамику мозга, требует сдвига в свойствах передовой технологии графических процессоров, которая способна ускорить глубокую архитектуру, но терпит неудачу в реализации широких мелких.

Больше информации: Ofek Tevet et al., Эффективный мелкий механизм обучения как альтернатива глубокому обучению, Physica A: статистическая механика и ее применение (2024).Doi: 10.1016/j.physa.2024.129513

Получи бесплатную еженедельную рассылку со ссылками на репозитории и лонгриды самых интересных историй о стартапах 🚀, AI технологиях 👩‍💻 и программировании 💻!
Присоединяйся к тысячам читателей для получения одного еженедельного письма

Подписывайся на нас:

Нашли ошибку в тексте? Напишите нам.

Добавляй ЛРНЧ в свою ленту Google Новостей.
Читайте далее 📖

Четкие рекомендации для синтетических данных, необходимы для обеспечения прозрачности, подотчетности и справедливости

4/14/2024 · 2 мин. чтения

Четкие рекомендации для синтетических данных, необходимы для обеспечения прозрачности, подотчетности и справедливости

DeepMind разрабатывает Safe, приложение на основе ИИ, которое может проверить LLMS на фактах

3/30/2024 · 2 мин. чтения

DeepMind разрабатывает Safe, приложение на основе ИИ, которое может проверить LLMS на фактах