Nvidia представила новейшую систему искусственного интеллекта


Nvidia

Глава компании недавно вынул графическую плату с новыми суперчипами из духовки на своей кухне

Производитель графических решений компания Nvidia объявила о выпуске новых чипов и компьютеров для работы с искусственным интеллектом (ИИ) в центрах обработки данных, заявив о скачке в производительности, который может помочь закрепить лидерство компании в растущей области. Как утверждает компания, новые процессоры в 20 раз быстрее в ИИ-задачах и ускоряют машинное обучение на всех этапах, а стоимость оборудования для дата-центров снижается. 

Новые процессоры с архитектурой Ampere в 20 раз быстрее, чем у ее предшественников, а мощности могут быть гибко перераспределены между двумя ключевыми областями обработки данных искусственного интеллекта: обучение и выводы, заявил генеральный директор компании Дженсен Хуанг (Jensen Huang). Новый чип Хуанг назвал самым большим скачком в истории Nvidia.

Производительность новых чипов Ampere достигла 5 петафлопс, благодаря чему компьютеры могут обрабатывать более сложные модели ИИ с большими объемами данных. На этой неделе глава Nvidia в качестве тизера "приготовил" самую большую графическую карту у себя дома в духовке.

Успех Nvidia в построении миллиардного бизнеса привлек внимание конкурентов и стартапов, пытающихся предложить новые решения для обработки ИИ. Nvidia, крупнейший производитель графических чипов, используемых в игровых персональных компьютерах, адаптировала свои технологии для нейросетей. 

Чипы Ampere уже являются частью серверов, поставляемых Nvidia. Компания считает, что они способны заменить гораздо более крупные, дорогие и энергоемкие стеллажи машин, на которых установлено большое количество процессоров от Intel.

Что касается стоимости, Nvidia продает компьютеры на базе Ampere под названием DGX A100 за $199 тысяч каждый. В типичном центре обработки данных пять таких машин превзошли бы 600 серверов на базе чипов Intel и продукты предыдущего поколения Nvidia — массив, который, по данным Nvidia, обошелся бы в $11 миллионов.

В состав системы DGX входят восемь графических процессоров A100, шесть коммутаторов NVLink 3.0, девять сетевых контроллеров Mellanox, два процессора AMD EPYC поколения Rome с 64 ядрами, 1 Тбайт оперативной памяти и 15 Тбайт твердотельных накопителей с поддержкой NVMe. Совокупный объем памяти типа HBM2 для системы DGX A100 - 320 Гбайт, пропускная способность графической памяти — 12,4 Тбайт/с.

Основными задачами искусственного интеллекта (ИИ) являются обучение и инференс. Первый – это процесс подготовки моделей искусственного интеллекта для производственных приложений, требующий больших объемов данных. Обучение модели искусственного интеллекта гарантирует, что она может точно и автоматизированно выполнять поставленные перед ней задачи, такие как распознавание лиц или понимание речи человека.

Инференс – это та задача, для выполнения которой необходимы обученные нейронные сети. Так как новые данные поступают в систему в виде изображений, речи, поисковых запросов по изображениям, именно инференс позволяет находить ответы и давать рекомендации, что лежит в основе большинства сервисов искусственного интеллекта.

Инференс – это крупный бизнес, и он должен стать крупнейшим драйвером роста ИИ. Согласно подсчетам McKinsey к 2025 году распространение инференс-оборудования ИИ в центре обработки данных будут вдвое выше, чем оборудования для тренировки ИИ (от $9 миллиардов до $10 миллиардов против $4-5 миллиардов сегодня). При развертывании периферийных устройств рынок инференс-решений к тому же году в три раза увеличится по сравнению с рынком аппаратного обеспечения для обучения алгоритмов.

По прогнозам Tractica, рынок чипсетов для глубокого обучения увеличится с $1,6 миллиарда в 2017 году до $66,3 миллиарда к 2025 году. Nvidia будет расти лучше, чем ожидалось, благодаря своему раннему лидерству в области чипов аппаратных ускорителей ИИ для платформ инференса. Это преимущество должно сохраняться по крайней мере в течение следующих двух лет, учитывая рост отрасли, а также существующий ассортимент продукции и позиционирование компании.

Чипы Nvidia также занимают значительную долю рынка обучения ИИ, которая заключается в быстрой обработке огромных объемов данных, таких как изображения или звуковые файлы, для определения паттернов, которые затем встраиваются в программное обеспечение.

Самое большое преимущество Nvidia – и, возможно, самая большая уязвимость перед конкурентами – заключается в технологии ее основных чипсетов. GPU Nvidia были оптимизированы в первую очередь для крупномасштабного и высокоскоростного обучения моделей искусственного интеллекта, хотя они также используются в задачах инференса в большинстве серверных приложений для машинного обучения. Сегодня эта GPU-технология является существенным конкурентным преимуществом на рынке инференса в дата-центре.

GPU-ускорение для инференса глубокого обучения дает возможность крупным нейросетям работать практически в режиме реального времени, не требуя увеличения затрат на аппаратную часть. По оценкам Nvidia, это обеспечивает высокую точность работы сетей с целочисленной математикой и данными с плавающей точкой, что в свою очередь позволяет сократить серверные затраты до 70%. Сервер, оснащенный одним GPU, обеспечивает в разы более высокую производительность в задачах инференса по сравнению с сервером на основе процессора (CPU), что приводит к значительному снижению затрат на инфраструктуру дата-центра.

Новая конструкция чипов Ampere позволит справиться с обеими задачами и переключаться между двумя типами работы по мере необходимости. Однако конкуренты не дремлют: Intel собирается дебютировать с своим графическим процессором, а Advanced Micro Devices Inc., крупнейший конкурент Nvidia в области графических чипов для компьютерных игр, также разрабатывает решения для центров обработки данных.

Nvidia и ее конкуренты нацелены на гигантские бюджеты облачных вычислительных компаний, таких как Amazon, Alphabet. Хуанг отказался обсуждать конкретных клиентов, но сказал, что все крупные облачные провайдеры уже сделали предзаказы на поставки компьютеров на базе Ampere. 

Вполне вероятно, что чипы Ampere войдут в состав суперкомпьютера Perlmutter, создаваемого Cray по заказу Министерства энергетики США.