Энергоэффективный способ алгоритмов ИИ для обработки данных
Схема, сравнивающая типичные модели машинного обучения (а) с новым дизайном Daruwalla (B).Строка A показывает вход или данные, необходимые для прохождения всего прохождения каждого уровня нейронной сети, прежде чем модель ИИ получит обратную связь, которая занимает больше времени и энергии.Напротив, ряд B показывает новую конструкцию, которая позволяет сгенерировать обратную связь и включать в каждый сетевой уровень.Кредит: Кайл Дарувалла/Лаборатория Cold Spring Harbor
Он читает.Это говорит.Он сочетает в себе горы данных и рекомендует бизнес -решения.Сегодняшний искусственный интеллект может показаться более человечным, чем когда -либо.Тем не менее, ИИ по -прежнему имеет несколько критических недостатков.
“Каким бы впечатляющим, как Chatgpt и все эти современные технологии искусственного интеллекта, с точки зрения взаимодействия с физическим миром, они все еще очень ограничены. Даже в том, что они делают, например, решают математические проблемы и пишут эссе, они берут миллиарды и миллиарды обученияПримеры, прежде чем они смогут сделать их хорошо », - объясняет ученый -нейроайай -лабораторию Cold Spring Harbor (CSHL) Кайл Дарувалла.
Дарувалла искал новые, нетрадиционные способы разработки ИИ, который может преодолеть такие вычислительные препятствия.И он мог бы только что нашел один.
Ключом было перемещение данных.В настоящее время большая часть потребления энергии современных вычислений происходит из -за подпрыгивания данных.В искусственных нейронных сетях, которые состоят из миллиардов связей, данные могут иметь очень долгий путь.
Таким образом, чтобы найти решение, Дарувалла искал вдохновение в одной из самых мощных и энергоэффективных машин-человеческий мозг.
Daruwalla разработала новый способ для алгоритмов ИИ, чтобы гораздо эффективнее перемещать и обрабатывать данные, исходя из того, как наш мозг получает новую информацию.Конструкция позволяет индивидуальным «нейронам» получать обратную связь и регулировать на лету, а не ждать, пока целая схема обновляется одновременно.Таким образом, данные не должны путешествовать до сих пор и обрабатываются в режиме реального времени.
«В нашем мозге наши связи постоянно меняются и корректируются», - говорит Дарувалла.«Это не то, чтобы вы остановились, а затем настраивайте, а затем возобновите себя».
Результаты опубликованы в журнале Frontiers в вычислительной нейробиологии.
The new machine-learning model provides evidence for a yet unproven theory that correlates working memory with learning and academic performance. Working memory is the cognitive system that enables us to stay on task while recalling stored knowledge and experiences.
«Были теории в нейробиологии того, как рабочие цепи памяти могут помочь облегчить обучение. Но нет ничего такого конкретного, как наше правило, которое на самом деле связывает эти два вместе. И это было одно из хороших вещей, в которые мы наткнулись здесь.Теория привела к правилу, где корректировка каждого синапса индивидуально требовала этой рабочей памяти, сидящей рядом с ним », - говорит Дарувалла.
Дизайн Daruwalla может помочь пионеру новому поколению ИИ, который учится, как мы.Это не только сделало бы ИИ более эффективным и доступным-это также был бы несколько моментом полного округа для нейроаи.Нейробиология питала ценные данные AI задолго до того, как CHATGPT произнес свой первый цифровой слог.Вскоре, кажется, ИИ может вернуть услугу.
More information: Kyle Daruwalla et al, Information bottleneck-based Hebbian learning rule naturally ties working memory and synaptic updates, Frontiers in Computational Neuroscience (2024). DOI: 10.3389/fncom.2024.1240348
Нашли ошибку в тексте? Напишите нам.