Google и Intel углубляют партнерство в области ИИ-инфраструктуры
Google и Intel объявили о расширении многолетнего партнерства, которое позволит Google Cloud продолжать использовать ИИ-инфраструктуру Intel и совместно разрабатывать процессоры. Google Cloud будет использовать процессоры Xeon от Intel, включая новейшие чипы Xeon 6, для задач ИИ, облачных вычислений и вывода данных. Компания использует различные процессоры Xeon от Intel на протяжении десятилетий.
Компании также расширят совместную разработку специализированных единиц обработки инфраструктуры (IPU), которые помогают ускорять и управлять задачами в дата-центрах, разгружая их от центральных процессоров (CPU). Партнерство по разработке чипов, начавшееся в 2021 году, будет сосредоточено на специализированных IPU на базе ASIC.
Intel отказалась предоставить информацию о стоимости сделки. Это расширение происходит на фоне растущего спроса на CPU в отрасли. Хотя GPU используются для разработки и обучения моделей ИИ, CPU играют ключевую роль в запуске ИИ-моделей и в общей инфраструктуре ИИ.
Генеральный директор Intel Лип-Бу Тан отметил в пресс-релизе компании: «ИИ меняет подход к построению и масштабированию инфраструктуры. Масштабирование ИИ требует не только ускорителей, но и сбалансированных систем. CPU и IPU являются центральными для обеспечения производительности, эффективности и гибкости, необходимых для современных рабочих нагрузок ИИ».
В последние месяцы все больше компаний обращают внимание на CPU на фоне растущего дефицита этих чипов. Так, принадлежащая SoftBank компания Arm Holdings недавно представила процессор Arm AGI CPU, который стал первым чипом, разработанным самой полупроводниковой компанией, на фоне мирового дефицита CPU.
Сierra представила Ghostwriter для создания ИИ-агентов
Meta представила Muse Spark, новый закрытый ИИ-модель
Похожие статьи
NVIDIA NVbandwidth: инструмент для оценки производительности GPU
NVIDIA представила NVbandwidth — инструмент для оценки производительности передачи данных между GPU.
Оптимизация использования GPU для эффективного обучения моделей
Изучите, как оптимизировать использование GPU для повышения эффективности обучения моделей.
Пять архитектур вычислений для ИИ, которые должен знать каждый инженер
Изучите пять ключевых архитектур вычислений для ИИ, которые важны для инженеров.