Добавить новость

Разработан новый энергоэффективный метод запуска больших языковых моделей ИИ

Ferra.ru
40

Создан новый подход к более эффективной работе больших языковых моделей (LLM), отказавшись от матричного умножения (MatMul), основной вычислительной задачи в нейронных сетях. Этот прорыв может значительно снизить воздействие на окружающую среду и эксплуатационные расходы систем ИИ, пишут ученые.

В своей работе "Scalable MatMul-free Language Modeling" команда описывает пользовательскую модель с 2,7 миллиардами параметров, которая работает сопоставимо с традиционными LLM без использования MatMul. Они продемонстрировали модель с 1,3 млрд параметров, работающую со скоростью 23,8 лексем в секунду на GPU, ускоренном пользовательским чипом FPGA, потребляющим около 13 Вт.

Такой подход позволяет снизить энергопотребление в 38 раз по сравнению с традиционными методами, что делает ИИ более доступным и устойчивым, особенно на устройствах с ограниченными ресурсами, таких как смартфоны.

Исследователи призывают крупные институты масштабировать и развивать эту инновационную методику дальше.

Moscow.media
Музыкальные новости

Новости России





Все новости на сегодня
Губернаторы России



Rss.plus

Другие новости




Все новости часа на smi24.net

Moscow.media
Ria.city
Новости Крыма на Sevpoisk.ru

Регионы