
За последние два года дискуссии об искусственном интеллекте почти полностью вращались вокруг вычислительной мощности: недостаточного количества графических процессоров, недостаточной вычислительной мощности и неадекватных кластеров.Но в этом отчете неоднократно подчеркивается один ключевой момент: что действительно сдерживает ИИ, так это не неспособность производить вычисления, а невозможность перемещения данных.
Поскольку размеры моделей увеличились с десятков мегабайт до нескольких гигабайт, наиболее загруженными компонентами системы стали уже не вычислительные блоки, а память и шины.Другими словами, узкое место ИИ постепенно смещается — от «вычислительной проблемы» к более фундаментальному предложению: проблема с хранилищем.
Это привело к более радикальному направлению: если перемещение данных — это самые большие накладные расходы, почему бы не позволить вычислениям происходить сами по себе. прямо на складе?
Архитектура под названием Compute-in-Memory (CIM) пытается переписать эту логику с самого начала.Ключом к его реализации является не более совершенный технологический узел, а тип технологии, который в прошлом не был таким «мейнстримом» —аналоговая память.
Эта статья предлагает нам переосмыслить важнейший вопрос: по мере того, как ИИ развивается до того уровня, где он находится сегодня, что на самом деле определяет его верхний предел — вычислительная мощность или хранилище?
Узкое место в производительности ИИ смещается от «вычислительной мощности» к «хранению и перемещению данных», и решение заключается в реконструкции парадигмы вычислений с использованием «аналоговой памяти + вычислений в памяти (CIM)».
Основными вычислениями глубоких нейронных сетей (DNN) является векторно-матричное умножение (VMM), которое по своей сути основано на массовом считывании весов.Поскольку размеры моделей растут от мегабайт до гигабайт (10–10 ГБ), они предъявляют огромные требования к встроенной памяти.
Обучение «интенсивно пишет», а вывод — «интенсивно читает» — оба вращаются вокруг накопления веса (синаптической памяти).
Заключение: ИИ — это не чисто вычислительная проблема;по сути, это вопрос «эффективности хранения + перемещения данных».
Традиционные графические процессоры/TPU работают по простому принципу: вычисления происходят в процессорных элементах (PE), а данные хранятся в SRAM/DRAM, что приводит к частому перемещению данных и крайне низкой эффективности.
Сравнение энергоэффективности:
Основное противоречие: Проблема не в неумении вычислять, а в неумении эффективно перемещать данные.
Архитектура CIM хранит веса непосредственно в массивах памяти и выполняет вычисления (параллельные VMM) внутри этих массивов, устраняя необходимость перемещения данных между «хранилищем ↔ вычислительными блоками».
Фундаментальное изменение:
Это смена парадигмы на архитектурном уровне, а не просто оптимизация.
Для реализации CIM требуется новый «грузовик».Среди основных кандидатов:
Основная возможность этих устройств заключается в представлении весов с использованием непрерывной проводимости (аналоговый мультибит).
В докладе подчеркивается не то, «можно ли это сделать», а практические препятствия:
1. Проблемы обучения (процесс написания)
Требования: Линейность и симметрия.
Практические вопросы: Нелинейность и асимметрия приводят к снижению точности.
2. Проблемы с выводами (стабильность чтения)
Вес со временем меняется, вызывая следующие проблемы:
- Термический дрейф
- Чтение помех
- Проблемы с сохранением
3. Проблемы на уровне массива
- Вариативность между устройствами
- Компромиссы между точностью, производительностью АЦП и размером массива.
Основной вывод: Проблема с аналоговой памятью заключается не в «достаточной точности», а в «стабильности и управляемости».
Будущие направления включают в себя:
Сущность: Это не точечный прорыв, а полноценная реконструкция.
Узким местом ИИ больше не являются вычислительные мощности, а «хранилище и поток данных».Analog CIM превращает «хранилище» в новое ядро вычислений, полностью меняя представление о том, как работают системы искусственного интеллекта.