6 мин. чтения
7/16/2024 9:29:18 AM

Neural network training made easy with smart hardware

Article Preview Image An organic neuromorphic chip based on ECRAM devices used for in situ hardware training of neural networks, built by Tim Stevens and Eveline van Doremaele in groups of Yoeri van de Burgt (Mechanical Engineering) & Marco Fattori (Electrical Engineering), TU Eindhoven. Photo: Bart van Overbeeke

Large-scale neural network models form the basis of many AI-based technologies such as neuromorphic chips, which are inspired by the human brain. Training these networks can be tedious, time-consuming, and energy-inefficient given that the model is often first trained on a computer and then transferred to the chip. This limits the application and efficiency of neuromorphic chips.

Исследователи TU/E решили эту проблему, разрабатывая нейроморфное устройство, способное на ширину, которое устраняет необходимость передачи обученных моделей в чип.Это может открыть путь к эффективным и выделенным чипам ИИ.

Вы когда -нибудь задумывались о том, насколько замечательно ваш мозг?Это мощная вычислительная машина, но она также быстрая, динамичная, адаптируемая и очень энергоэффективная.

The combination of these attributes has inspired researchers at TU/e, including Yoeri van de Burgt, to mimic how the brain works in technologies where learning is important, such as artificial intelligence (AI) systems in transport, communication, and health care.

“At the heart of such AI systems you’ll likely find a neural network,” says Van de Burgt, associate professor at the Department of Mechanical Engineering at TU/e.

Neural networks are brain-inspired computer software models. In the human brain, neurons talk to other neurons via synapses, and the more two neurons talk to each other, the stronger the connection between them becomes. In neural network models—which are made of nodes—the strength of a connection between any two nodes is given by a number called the weight.

“Neural networks can help solve complex problems with large amounts of data, but as the networks get larger, they bring increasing energy costs and hardware limitations,” says Van de Burgt. “But there is a promising hardware-based alternative—neuromorphic chips.”

Like neural networks, neuromorphic chips are inspired by how the brain works but the imitation is taken to a whole new level. In the brain, when the electrical charge in a neuron changes it can then fire and send electrical charges to connected neurons. Neuromorphic chips replicate this process.

«В нейроморфном чипе есть мемристоры (которые коротко для резисторов памяти). Это устройства схемы, которые могут« помнить », сколько электрического заряда протекает через них в прошлом», - говорит Ван де Бургт.«И это именно то, что требуется для устройства, смоделированного о том, как нейроны мозга хранят информацию и разговаривают друг с другом».

Но есть нейроморфный улов - и это связано с двумя способами обучения оборудованию на основе нейроморфных чипов.Вначале обучение проводится на компьютере, а веса из сети сопоставлены с аппаратным обеспечением чипа.

Альтернатива состоит в том, чтобы пройти обучение на месте или в аппаратном обеспечении, но текущие устройства должны быть запрограммированы один за другим, а затем проверены ошибками.Это требуется, потому что большинство мемристоров стохастичны, и невозможно обновить устройство, не проверяя его.

“These approaches are costly in terms of time, energy, and computing resources. To really exploit the energy-efficiency of neuromorphic chips, the training needs to be done directly on the neuromorphic chips,” says Van de Burgt.

И это именно то, чего Ван де Бергт и его сотрудники в TU/E достигли и опубликованы в новой статье в области научных достижений.«Это была настоящая команда усилий, и все они были инициированы авторами Тима Стивенсом и Эвелин Ван Доремэле»,-говорит Ван де Бургт.

The story of the research can be traced back to the master’s journey of Tim Stevens. “During my master’s research, I became interested in this topic. We have shown that it’s possible to carry out training on hardware only. There’s no need to transfer a trained model to the chip, and this could all lead to more efficient chips for AI applications,” says Stevens.

Ван де Бергт, Стивенс и Ван Доремэле, ​​которые защищали ее докторскую степень.Тезис в 2023 году на нейроморфных чипах - немного помог по пути с дизайном оборудования.Итак, они обратились к Марко Фаттори из Департамента электротехники.

«Моя группа помогла с аспектами, связанными с конструкцией схемы чипа», - говорит Фаттори.«Было здорово поработать над этим междисциплинарным проектом, в котором те, кто создает чипы, работают с теми, кто работает над аспектами программного обеспечения».

For Van de Burgt, the project also showed that great ideas can come from any rung on the academic ladder. “Tim saw the potential for using the properties of our devices to a much greater extent during his master’s research. There’s a lesson to be learned here for all projects.”

For the researchers, the main challenge was to integrate the key components needed for on-chip training on a single neuromorphic chip. “A major task to solve was the inclusion of the electrochemical random-access memory (EC-RAM) components for example,” says Van de Burgt. “These are the components that mimic the electrical charge storing and firing attributed to neurons in the brain.”

The researchers fabricated a two-layer neural network based on EC-RAM components made from organic materials and tested the hardware with an evolution of the widely used training algorithm backpropagation with gradient descent. “The conventional algorithm is frequently used to improve the accuracy of neural networks, but this is not compatible with our hardware, so we came up with our own version,” says Stevens.

Более того, ИИ во многих областях быстро становится неустойчивой кусочком энергетических ресурсов, возможность обучать нейронные сети на аппаратные компоненты для доли затрат энергии является заманчивой возможностью для многих приложений - от ЧАТГПТ до прогнозирования погоды.

В то время как исследователи продемонстрировали, что новый подход к обучению работает, следующий логический шаг - стать больше, смелее и лучше.

“We have shown that this works for a small two-layer network,” says van de Burgt. “Next, we’d like to involve industry and other big research labs so that we can build much larger networks of hardware devices and test them with real-life data problems.”

Этот следующий шаг позволит исследователям продемонстрировать, что эти системы очень эффективны в обучении, а также запускают полезные нейронные сети и системы искусственного интеллекта.«Мы хотели бы применить эту технологию в нескольких практических случаях», - говорит Ван де Бергт.«Моя мечта заключается в том, чтобы такие технологии стали нормой в приложениях ИИ в будущем».

More information: Eveline R. W. van Doremaele et al, Hardware implementation of backpropagation using progressive gradient descent for in situ training of multilayer neural networks, Science Advances (2024). DOI: 10.1126/sciadv.ado8999

Получи бесплатную еженедельную рассылку со ссылками на репозитории и лонгриды самых интересных историй о стартапах 🚀, AI технологиях 👩‍💻 и программировании 💻!
Присоединяйся к тысячам читателей для получения одного еженедельного письма

Подписывайся на нас:

Нашли ошибку в тексте? Напишите нам.

Добавляй ЛРНЧ в свою ленту Google Новостей.
Читайте далее 📖

Думать о росте вдохновленных мозгом вычислений

8/6/2024 · 6 мин. чтения

Думать о росте вдохновленных мозгом вычислений

Устройство на основе соединения магнитного туннеля, чтобы сделать ИИ более энергоэффективным

7/27/2024 · 6 мин. чтения

Устройство на основе соединения магнитного туннеля, чтобы сделать ИИ более энергоэффективным

*Facebook, Instagram, Meta - запрещенные в РФ организации.