Meta✴, OpenAI, Microsoft и Oracle заявили, что планируют внедрить в свои системы новейшие ускорители для систем искусственного интеллекта AMD Instinct MI300X. Лидеры отрасли ясно дали понять, что ищут альтернативы дорогим и дефицитным ИИ-ускорителям NVIDIA, которые необходимы для создания и внедрения ИИ-платформ, включая ChatGPT.
Поставки высокопроизводительных ускорителей AMD Instinct MI300X стартуют в начале будущего года, и если он окажется подходящим для технологических компаний и поставщиков облачных услуг, это может снизить затраты на разработку ИИ-моделей и оказать конкурентное давление на NVIDIA, занявшую значительную долю этого рынка. Как отметила вчера AMD, MI300X основан на новой архитектуре CDNA3 и способен обеспечить очень высокую производительность. Одной из его отличительных особенностей являются 192 Гбайт современной высокоскоростной памяти HBM3, что отлично подходит для крупных моделей ИИ.
Глава AMD доктор Лиза Су (Lisa Su) сравнила Instinct MI300X с одним из лучших ускорителей на рынке — NVIDIA H100. «Эта производительность непосредственно улучшает взаимодействие [нейросетей] с пользователем. Когда задаёшь модели вопрос, хочется, чтобы она отвечала быстрее, особенно когда ответы становятся сложнее», — сообщила она. Главный вопрос в том, готовы ли использующие оборудование NVIDIA клиенты тратить время и деньги на внедрение продукции ещё одного поставщика. AMD сообщила инвесторам и партнёрам, что усовершенствовала свой программный пакет ROCm, способный напрямую конкурировать с NVIDIA CUDA, к которому уже привыкли разработчики ИИ-систем. Ещё одним важным аспектом является цена: ускорители NVIDIA реализуются по $40 тыс. — AMD пока не раскрыла цены на Instinct MI300X, но, по словам Лизы Су, её продукт должен быть дешевле аналога от NVIDIA при покупке и эксплуатации.
AMD заявила, что уже заключила контракты с некоторыми клиентами. Meta✴ планирует использовать новые ускорители в генераторах стикеров, ИИ-редакторе изображений и ИИ-помощнике. Технический директор Microsoft Кевин Скотт (Kevin Scott) заявил, что доступ к AMD Instinct MI300X будет открыт в веб-сервисе Azure. Новые чипы будет использовать и облачная инфраструктура Oracle. OpenAI доложила, что будет пользоваться чипами AMD в проекте Triton — это не большая языковая модель вроде GPT, а платформа для исследований с доступом к соответствующим функциям оборудования.
На 2024 год AMD запланировала в сегменте ускорителей для центров обработки данных выручку в $2 млрд, но сообщила, что мировой рынок ИИ-чипов в ближайшие четыре года вырастет до $400 млрд. И чтобы преуспеть на этом рынке, AMD даже не потребуется побеждать NVIDIA, отметила доктор Су.