Несмотря на медленный старт AMD, наблюдатели говорят, что у компании все еще есть надежда догнать Nvidia. Nvidia в настоящее время лидирует в гонке чипов искусственного интеллекта , но AMD прилагает усилия, чтобы сократить отставание.
Технический директор Microsoft Кевин Скотт недавно заявил на конференции, что AMD «делает все более привлекательные предложения графических процессоров», которые могут конкурировать с Nvidia.
Однако отраслевые эксперты говорят, что AMD сталкивается с серьезной проблемой в растущей области процессоров искусственного интеллекта. «Первое и главное преимущество Nvidia заключается в программном обеспечении, которое было высоко оптимизировано для работы на ее чипах искусственного интеллекта», — сказал Бенджамин Ли, профессор кафедры электротехники и системной инженерии и кафедры компьютерных и информационных наук Пенсильванского университета.
в интервью.
Гонка за фишками С тех пор как OpenAI представила ChatGPT в прошлом году, наблюдается всплеск интереса к большим языковым моделям (LLM), требующим огромных вычислительных ресурсов.
По данным дочерней исследовательской компании Omdia , хотя такие компании, как Google, Amazon, Meta и IBM, разработали чипы искусственного интеллекта, в настоящее время Nvidia доминирует с более чем 70% продаж чипов искусственного интеллекта.
Одним из секретов успеха Nvidia является ее программное обеспечение. По словам Ли, компания разработала приложение CUDA для выполнения более общих типов вычислений на своих графических процессорах.
Программные библиотеки Nvidia CUDA хорошо интегрированы с наиболее популярными языками программирования для машинного обучения, такими как PyTorch .
Еще одним преимуществом Nvidia являются высокоскоростные сети и системные архитектуры, соединяющие несколько графических процессоров. «Эти сети обеспечивают быструю и эффективную координацию, когда модель слишком велика для работы на одном графическом процессоре, что позволяет создавать более крупные и быстрые суперкомпьютеры с искусственным интеллектом», — добавил он.
Новый графический процессор Nvidia H100 , разработанный для приложений искусственного интеллекта и поступивший в продажу в сентябре, стал свидетелем резкого роста спроса.
Компании всех размеров спешат защитить эти чипы, производимые с использованием передовых технологий производства и требующие сложной упаковки, объединяющей графические процессоры с конкретными чипами памяти.
Лидеры отрасли ожидают, что нехватка H100 сохранится до 2024 года.
Отсутствие поставок создает проблемы для стартапов в области искусственного интеллекта и облачных сервисов, стремящихся вывести на рынок вычислительные услуги с использованием этих новых графических процессоров.
Тем временем другие компании пытаются воспользоваться дефицитом H100. SambaNova Systems выпустила новый чип SN40L, предназначенный для LLM. Предполагается, что SN40L может обрабатывать модель с 5 триллионами параметров и поддерживать длину последовательности более 256 тысяч, и все это в одной системе для лучшего качества модели и более быстрых результатов по более низкой цене, чем предложения Nvidia.
SambaNova утверждает, что обширная память ее чипа позволяет выполнять множество задач, таких как поиск, анализ и генерация данных, что делает его универсальным для различных приложений искусственного интеллекта.
Как AMD может догнать Несмотря на медленный старт AMD, наблюдатели говорят, что у компании все еще есть надежда догнать Nvidia.
В июне AMD поделилась планами начать тестирование своего чипа MI300X с клиентами в третьем квартале — графического процессора, созданного специально для вычислений ИИ.
AMD пока не объявила цену или новый чип, но этот шаг может подтолкнуть Nvidia к снижению стоимости своих графических процессоров, таких как H100, которые могут быть дорогими, часто превышающими 30 000 долларов.
Более дешевые графические процессоры могут сделать запуск генеративных приложений искусственного интеллекта более доступным.
MI300X может работать с более крупными моделями искусственного интеллекта, чем другие чипы, поскольку он может использовать до 192 ГБ памяти.
Для сравнения, Nvidia H100 поддерживает только 120 ГБ памяти. Большим моделям ИИ требуется много памяти, поскольку они выполняют множество вычислений. AMD продемонстрировала MI300X на базе модели Falcon с 40 миллиардами параметров.
Для сравнения, модель GPT-3 OpenAI имеет 175 миллиардов параметров. Однако одного лишь аппаратного обеспечения может оказаться недостаточно для того, чтобы AMD захватила большую долю рынка.
Применяя принципы нейробиологии к искусственному интеллекту , теперь можно запускать LLM на процессорах для повышения производительности, улучшения энергопотребления и энергопотребления, а также существенной экономии средств, заявил в интервью Субутай Ахмад, генеральный директор Numenta.
«AMD следует включить эти технологии в свой программный стек, чтобы конкурировать с Nvidia», — добавил он.
Одним из преимуществ, которое уже есть у AMD, является то, что ее программный стек с открытым исходным кодом ROCm позволяет машинному обучению более эффективно работать на ее чипах.
Но этот фреймворк гораздо менее популярен, чем CUDA, отметил Ли. Он сказал, что поддержка программного обеспечения является наиболее важным фактором, определяющим производительность машинного обучения.
«Ни одна другая компания в отрасли, например, графические процессоры AMD или тензорный процессор Google, не имеет столь зрелой и оптимизированной экосистемы программного обеспечения», — добавил он. Другие компании не стоят на месте.
По словам Ли , тензорный процессор Google (TPU) представляет собой примечательную конструкцию чипа, а Cerebras разрабатывает более крупные чипы с увеличенным объемом памяти для повышения производительности оборудования.
«Но все эти альтернативы страдают от тех же или более серьезных проблем с программным обеспечением, что и AMD», — добавил он. «ТПУ более энергоэффективны для машинного обучения, а Cerebras продемонстрировала высокую производительность для научных приложений.
Но без зрелого программного стека разработчики не могут легко загружать и запускать новейшие модели машинного обучения с открытым исходным кодом, такие как модели Hugging Face, с конкурентное выступление».
В какой-то момент генеративному ИИ, возможно, больше не придется полагаться на графические процессоры.
Ахмад предсказал, что компании однажды обратятся к более дешевым процессорам, которые обеспечивают высокую пропускную способность и низкую задержку даже для самых сложных и сложных приложений обработки естественного языка (NLP).
«ЦП также более гибки, чем графические процессоры», — добавил он. «ЦП предназначены для задач общего назначения и не зависят от пакетной обработки для повышения производительности.
Их адаптируемая природа и более простая инфраструктура делают их невероятно гибкими, масштабируемыми и экономичными».
Рубрика: Hi-Tech и Наука. Читать весь текст на android-robot.com.