ГлавнаяНовостиСдвиг в «узких местах» искусственного интеллекта: дело не в вычислительной мощности, а в перемещении данных.Вычисления в памяти — это решение

Сдвиг в «узких местах» искусственного интеллекта: дело не в вычислительной мощности, а в перемещении данных.Вычисления в памяти — это решение

Сдвиг «узких мест» искусственного интеллекта: от вычислительной мощности к памяти и перемещению данных — вычисления в памяти (CIM) берут верх


За последние два года дискуссии об искусственном интеллекте почти полностью вращались вокруг вычислительной мощности: недостаточного количества графических процессоров, недостаточной вычислительной мощности и неадекватных кластеров.Но в этом отчете неоднократно подчеркивается один ключевой момент: что действительно сдерживает ИИ, так это не неспособность производить вычисления, а невозможность перемещения данных.

Поскольку размеры моделей увеличились с десятков мегабайт до нескольких гигабайт, наиболее загруженными компонентами системы стали уже не вычислительные блоки, а память и шины.Другими словами, узкое место ИИ постепенно смещается — от «вычислительной проблемы» к более фундаментальному предложению: проблема с хранилищем.

Это привело к более радикальному направлению: если перемещение данных — это самые большие накладные расходы, почему бы не позволить вычислениям происходить сами по себе. прямо на складе?

Архитектура под названием Compute-in-Memory (CIM) пытается переписать эту логику с самого начала.Ключом к его реализации является не более совершенный технологический узел, а тип технологии, который в прошлом не был таким «мейнстримом» —аналоговая память.

Эта статья предлагает нам переосмыслить важнейший вопрос: по мере того, как ИИ развивается до того уровня, где он находится сегодня, что на самом деле определяет его верхний предел — вычислительная мощность или хранилище?

Основная идея отчета

Узкое место в производительности ИИ смещается от «вычислительной мощности» к «хранению и перемещению данных», и решение заключается в реконструкции парадигмы вычислений с использованием «аналоговой памяти + вычислений в памяти (CIM)».

ИИ — это, по сути, проблема вычислений, основанных на хранении данных

Основными вычислениями глубоких нейронных сетей (DNN) является векторно-матричное умножение (VMM), которое по своей сути основано на массовом считывании весов.Поскольку размеры моделей растут от мегабайт до гигабайт (10–10 ГБ), они предъявляют огромные требования к встроенной памяти.

Обучение «интенсивно пишет», а вывод — «интенсивно читает» — оба вращаются вокруг накопления веса (синаптической памяти).

Заключение: ИИ — это не чисто вычислительная проблема;по сути, это вопрос «эффективности хранения + перемещения данных».

Фундаментальное узкое место традиционной архитектуры: перемещение данных

Традиционные графические процессоры/TPU работают по простому принципу: вычисления происходят в процессорных элементах (PE), а данные хранятся в SRAM/DRAM, что приводит к частому перемещению данных и крайне низкой эффективности.

Сравнение энергоэффективности:

  • Традиционные платформы: ~0,1 TOPS/Вт.
  • Цифровые ASIC: ~ 1–10 TOPS/Вт.
  • Аналоговый CIM: ~ 10–100 ТОПС/Вт

Основное противоречие: Проблема не в неумении вычислять, а в неумении эффективно перемещать данные.

Ключевое направление: вычисления в памяти (CIM)

Архитектура CIM хранит веса непосредственно в массивах памяти и выполняет вычисления (параллельные VMM) внутри этих массивов, устраняя необходимость перемещения данных между «хранилищем ↔ вычислительными блоками».

Фундаментальное изменение:

  • Традиционная архитектура: память и вычисления разделены.
  • Архитектура CIM: Память = Вычисления

Это смена парадигмы на архитектурном уровне, а не просто оптимизация.

Базовый носитель: аналоговая многоразрядная память (аналоговый синапс)

Для реализации CIM требуется новый «грузовик».Среди основных кандидатов:

  • RRAM (резистивная память с произвольным доступом)
  • PCM (память с фазовым изменением)
  • FeFET (сегнетоэлектрический полевой транзистор)
  • Flash/3D NAND и т. д.

Основная возможность этих устройств заключается в представлении весов с использованием непрерывной проводимости (аналоговый мультибит).

Реальная проблема: физические ограничения устройства определяют верхние пределы системы

В докладе подчеркивается не то, «можно ли это сделать», а практические препятствия:

1. Проблемы обучения (процесс написания)
Требования: Линейность и симметрия.
Практические вопросы: Нелинейность и асимметрия приводят к снижению точности.

2. Проблемы с выводами (стабильность чтения)
Вес со временем меняется, вызывая следующие проблемы: - Термический дрейф - Чтение помех - Проблемы с сохранением

3. Проблемы на уровне массива
- Вариативность между устройствами - Компромиссы между точностью, производительностью АЦП и размером массива.

Основной вывод: Проблема с аналоговой памятью заключается не в «достаточной точности», а в «стабильности и управляемости».

Итоговый тренд: 3D-интеграция + координация на системном уровне

Будущие направления включают в себя:

  • Монолитная 3D-интеграция
  • Глубокая связь памяти и логики
  • Совместное проектирование устройств, схем и алгоритмов

Сущность: Это не точечный прорыв, а полноценная реконструкция.

Заключение

Узким местом ИИ больше не являются вычислительные мощности, а «хранилище и поток данных».Analog CIM превращает «хранилище» в новое ядро ​​вычислений, полностью меняя представление о том, как работают системы искусственного интеллекта.