Главная›Статьи›Чипы AMD теперь могут выполнять работу искусственного интеллекта
"
Чипы AMD теперь могут выполнять работу искусственного интеллекта
Дата публикации:23.05.2024, 06:42
1903
1903
Поделись с друзьями!
В последнее время кажется, что это мир Nvidia, и все — и уж точно любой человек в сфере технологий и бурно развивающейся индустрии искусственного интеллекта — живут в нем.
Благодаря своевременному выходу на рынок, передовым исследованиям в области оборудования и надежной экосистеме программного обеспечения, разработанной специально для ее графических процессоров, компания доминирует в области разработки искусственного интеллекта и на фондовом рынке . В последнем отчете о прибылях компании, опубликованном сегодня поздно вечером, сообщается, что квартальные продажи утроились, что еще больше повысило цену ее акций .
Тем не менее, давний конкурент-производитель микросхем AMD по-прежнему прилагает все усилия, чтобы закрепиться в сфере искусственного интеллекта, говоря разработчикам ключевых технологий в зарождающемся пространстве, что они также могут выполнять свою работу на оборудовании AMD.
"Я просто хотел напомнить всем, что если вы используете PyTorch, TensorFlow или JAX, вы можете использовать свои ноутбуки или скрипты, они просто будут работать на AMD”, - заявил старший директор AMD Ян Феррейра на конференции Microsoft Build 2024 ранее в среду. “То же самое с механизмами логического вывода. BLLM и Onyx также работают "из коробки".
Компания использовала свое выступление на сцене, чтобы продемонстрировать примеры того, как графические процессоры AMD могут запускать мощные модели искусственного интеллекта, такие как Stable Diffusion и Microsoft Phi, эффективно выполняя трудоемкие задачи обучения, не зависящие от технологии или оборудования Nvidia.
Ведущий конференции Microsoft подтвердил это сообщение, объявив о доступности виртуальных машин на базе AMD на своей платформе облачных вычислений Azure, использующих ускоренные графические процессоры MI300X компании. Чипы были анонсированы в июне прошлого года, начали поставляться в новом году и недавно были внедрены в сервис OpenAI Microsoft Azure и инфраструктуру Hugging Face.
Библиотеки ML, поддерживаемые AMD. Изображение: Microsoft. YouTube
Запатентованная технология Nvidia CUDA, которая включает в себя полноценную программную модель и API, разработанные специально для графических процессоров Nvidia, стала отраслевым стандартом разработки искусственного интеллекта. Таким образом, основная идея AMD заключалась в том, что ее решения могут быть встроены в те же рабочие процессы.
Полная совместимость с существующими системами искусственного интеллекта может кардинально изменить ситуацию, поскольку разработчики теперь могут использовать менее дорогостоящее оборудование AMD без пересмотра своей кодовой базы.
“Конечно, мы понимаем, что вам нужно больше, чем просто фреймворки, вам нужна куча материалов для разработки, вам нужна куча экспериментов, распределенное обучение — все это включено и работает на AMD”, - заверил Феррейра.
Затем он продемонстрировал, как AMD справляется с различными задачами, от запуска небольших моделей, таких как ResNet 50 и Phi-3, до точной настройки и обучения GPT-2 — и все это с использованием того же кода, что и карты Nvidia.
Изображение: Microsoft. YouTube
Одним из ключевых преимуществ, которые рекламировала AMD, является способность эффективно обрабатывать большие языковые модели.
“Вы можете загрузить до 70 миллиардов параметров на один графический процессор, восемь из которых в данном экземпляре”, - объяснил он. “Вы можете загрузить восемь разных llama 70B или взять большую модель, такую как Llama-3 400Bn, и развернуть ее в одном экземпляре”.
Бросить вызов доминированию Nvidia непросто, поскольку компания из Санта-Клары, штат Калифорния, яростно защищает свою территорию. Nvidia уже подала в суд на проекты, пытающиеся обеспечить уровни совместимости CUDA для графических процессоров сторонних производителей, таких как AMD, утверждая, что это нарушает условия предоставления услуг CUDA. Это ограничило разработку решений с открытым исходным кодом и затруднило разработчикам поиск альтернатив.
Стратегия AMD по обходу блокады Nvidia заключается в использовании ее платформы ROCm с открытым исходным кодом, которая напрямую конкурирует с CUDA. Компания добилась значительных успехов в этом направлении, заключив партнерство с Hugging Face, крупнейшим в мире хранилищем моделей искусственного интеллекта с открытым исходным кодом, для обеспечения поддержки запуска кода на оборудовании AMD.
Это партнерство уже дало многообещающие результаты: AMD предлагает встроенную поддержку и дополнительные инструменты ускорения, такие как выполнение моделей ONNX на графических процессорах с поддержкой ROCm, Optimum-Benchmark, DeepSpeed для графических процессоров с поддержкой ROCm с использованием Transformers, GPTQ, TGI и другие.
Феррейра также отметил, что эта интеграция является встроенной, что устраняет необходимость в решениях сторонних производителей или посредниках, которые могут снизить эффективность процессов.
“Вы можете взять свои существующие ноутбуки, свои существующие скрипты и запускать их на AMD, и это важно, потому что многие другие ускорители требуют перекодирования и всевозможных предварительных компиляций скриптов”, - сказал он. “Наши устройства просто работают из коробки - и это очень, очень быстро”.
Хотя шаг AMD, несомненно, смелый, свергнуть Nvidia с трона будет непросто. Nvidia не останавливается на достигнутом, постоянно внедряя инновации и затрудняя разработчикам переход на новую инфраструктуру с фактического стандарта CUDA.
Однако благодаря подходу с открытым исходным кодом, стратегическому партнерству и акценту на встроенную совместимость AMD позиционирует себя как жизнеспособную альтернативу для разработчиков, ищущих больше возможностей на рынке оборудования для искусственного интеллекта.
Подписывайся на наш Telegram канал. Не трать время на мониторинг новостей. Только срочные и важные новости