4 мин. чтения
7/27/2024 11:16:08 AM

Устройство на основе соединения магнитного туннеля, чтобы сделать ИИ более энергоэффективным

Article Preview Image Пользовательское аппаратное устройство планирует помочь искусственному интеллекту быть более энергоэффективным.Кредит: Университет Миннесоты -близнецы.

Исследование опубликовано в нетрадиционных вычислениях NPJ под названием «Экспериментальная демонстрация вычислительной вычислительной памяти на основе магнитного туннельного соединения».Исследователи имеют несколько патентов на технологию, используемую на устройстве.

Благодаря растущему спросу на приложения для искусственного интеллекта, исследователи искали способы создания более энергоэффективного процесса, сохраняя при этом высокую производительность и стоимость низкой.Обычно процессы машинного или искусственного интеллекта передают данные как между логикой (где информация обрабатывается в системе), так и в памяти (где хранятся данные), потребляя большой объем мощности и энергии.

Команда исследователей из Университета Миннесотского колледжа науки и инженерии продемонстрировала новую модель, в которой данные никогда не покидают память, называемую вычислительной случайной памятью (CRAM).

«Эта работа является первой экспериментальной демонстрацией CRAM, где данные могут быть полностью обработаны в массиве памяти без необходимости покинуть сетку, где компьютер хранит информацию», - сказал Ян Л.В., Департамент электрической и компьютерной техники Университета Миннесоты МиннесотыПостдокторский исследователь и первый автор статьи.

Международное энергетическое агентство (IEA) выпустило глобальный прогноз использования энергии в марте 2024 года, прогнозировав, что потребление энергии для ИИ, вероятно, удвоится от 460 тераватт-часов (TWH) в 2022 году до 1000 TWH в 2026 году. Это примерно эквивалентноПотребление электричества всей страны Японии.

По словам авторов новой статьи, по оценкам, ускоритель локального вывода машинного обучения на основе мошенника для достижения улучшения порядка 1000.Другой пример показал экономию энергии в 2500 и 1700 раз по сравнению с традиционными методами.

Это исследование было более чем за два десятилетия в создании.

«Наша первоначальная концепция для использования ячеек памяти непосредственно для вычисления 20 лет назад считалась сумасшедшей»,-сказал Цзян Пин Ван, старший автор в газете и выдающийся профессор McKnight и председатель Роберта Ф. Хартманна в Департаменте электрической и компьютерной техники вУниверситет Миннесоты.

«С развивающейся группой студентов с 2003 года и настоящей междисциплинарной факультетской командой, построенной в Университете Миннесоты - от физики, материаловедения и инженерии, информатики и техники, до моделирования и сравнительного анализа, а также создания оборудования - мы смогли получить позитивныеРезультаты и теперь продемонстрировали, что этот вид технологий осуществимы и готов к включению в технологии », - сказал Ван.

Это исследование является частью последовательных и давних усилий, настраиваемых на новаторское запатентованное исследование Wangs и его сотрудников, которые представляют собой наноструктурированные устройства, используемые для улучшения жестких дисков, датчиков и других микроэлектронных систем, включая системы, включая системы микроэлектроники, включая системы микроэлектрон.Магнитная память о случайном доступе (MRAM), которая использовалась во встроенных системах, таких как микроконтроллеры и интеллектуальные часы.

Архитектурамм позволяет истинную вычисление в памяти и по памяти и разбивает стену между вычислением и памятью как узкое место в традиционной архитектуре фон Неймана, теоретической дизайне для хранимого программного компьютера, который служит основой почти для всех современных компьютеров.

«Как чрезвычайно энергоэффективный цифровой на основе вычислительной подложки в памяти, CRAM очень гибкая, поскольку вычисление может быть выполнено в любом месте в массиве памяти. Соответственно, мы можем реконфигурировать CRAM, чтобы лучше всего соответствовать потребностям производительности разнообразного набораАлгоритмы ИИ »,-сказал Уля Карпузку, эксперт по вычислительной архитектуре, соавтор бумаги и доцент кафедры электрической и компьютерной техники в Университете Миннесоты.

«Это более энергоэффективно, чем традиционные строительные блоки для современных систем ИИ».

Кармпейс эффективно выполняет вычисления непосредственно в ячейках памяти, используя структуру массива, что устраняет необходимость медленных и энергоемких передачи данных, объяснил Карпузку.

Наиболее эффективная кратковременная память о случайном доступе или ОЗУ, устройство использует четыре или пять транзисторов, чтобы кодировать один или нулевой, но один MTJ, спинтронический устройство, может выполнять ту же функцию на долю энергии, с более высокой скоростью,и устойчив к суровой среде.Spintronic Devices используют вращение электронов, а не электрическую зарядку для хранения данных, обеспечивая более эффективную альтернативу традиционным чипам на основе транзистора.

В настоящее время команда планирует работать с лидерами полупроводниковых отраслей, в том числе в Миннесоте, для предоставления крупномасштабных демонстраций и создания аппаратного обеспечения для продвижения функциональности ИИ.

В дополнение к LV, Wang и Karpuzcu, команда включала исследователей Университета Миннесоты по электрической и компьютерной инженерии Роберт Блум и Хусрев Cilasun;Заслуженный профессор McKnight и Роберт и председатель Марджори Генл Сачин Сапатнекар;и бывшие постдокторские исследователи Брэндон Зинк, Замшед Чоудхури и Салоник Ресш;Наряду с исследователями из Университета Аризоны: Правин Ханал, Али Хабибоглу и профессор Вейганг Ван.

More information: Yang Lv et al, Experimental demonstration of magnetic tunnel junction-based computational random-access memory, npj Unconventional Computing (2024). DOI: 10.1038/s44335-024-00003-3

Получи бесплатную еженедельную рассылку со ссылками на репозитории и лонгриды самых интересных историй о стартапах 🚀, AI технологиях 👩‍💻 и программировании 💻!
Присоединяйся к тысячам читателей для получения одного еженедельного письма

Подписывайся на нас:

Нашли ошибку в тексте? Напишите нам.

Добавляй ЛРНЧ в свою ленту Google Новостей.
Читайте далее 📖

Думать о росте вдохновленных мозгом вычислений

8/6/2024 · 4 мин. чтения

Думать о росте вдохновленных мозгом вычислений

Neural network training made easy with smart hardware

7/16/2024 · 4 мин. чтения

Neural network training made easy with smart hardware

*Facebook, Instagram, Meta - запрещенные в РФ организации.