
Если вы продаете больше процессоров для приложений искусственного интеллекта (AI) и высокопроизводительных вычислений (HPC), чем кто-либо другой в отрасли, и хотите, чтобы так и оставалось, вам необходимо обеспечить стабильные поставки вашей продукции. Именно это и делает Nvidia: она не только заранее закупает у TSMC емкость пластин и упаковочных мощностей, но также обеспечивает поставки памяти HBM3. Корейское издание Chosun Biz сообщает, что компания заранее приобрела память HBM3 на сумму более 1,3 миллиарда долларов у Micron и SK Hynix.
Согласно беседам издания с инсайдерами отрасли, Nvidia произвела авансовые платежи в размере от 700 миллиардов до 1 триллиона корейских вон (около 540-770 миллионов долларов) компаниям Micron и SK Hynix. Хотя конкретной информации о назначении платежей нет, которые могут варьироваться от 1,080 до 1,54 миллиарда долларов, в отрасли широко распространено мнение, что цель платежей — обеспечить стабильные поставки памяти HBM3E для будущего AI, который выйдет в 2024 году, и выпуск графических процессоров HPC.
Nvidia наращивает выпуск двух продуктов с памятью HBM3E: H200 AI и HPC GPU со 141 ГБ HBM3E и платформа GH200 с процессором Grace и графическим процессором H200, оснащенным 141 ГБ памяти HBM3E. Оба устройства будут популярны и потребуют огромного объема памяти, поэтому предварительная покупка имеет для Nvidia большой смысл.
На самом деле, производители графических процессоров нередко заранее закупают дорогие продукты памяти у своих поставщиков, поскольку проще продавать продвинутые графические процессоры с памятью, особенно мелким производителям видеокарт. В случае с графическими процессорами AI и HPC, используемыми для вычислений, Nvidia склонна продавать готовые карты PCIe и модули SXM, а не только кристаллы графических процессоров, поэтому для Nvidia имеет смысл также закупить HBM3E.
Принимая во внимание, что графические процессоры Nvidia для искусственного интеллекта и HPC распроданы на ближайшие кварталы, компании необходимо обеспечить стабильные поставки памяти для своих H100, H200, GH200 и других продуктов, использующих HBM3 или HBM3E.
Еще неизвестно, будут ли у Micron, SK Hynix и Samsung достаточно мощностей для поставки памяти HBM3 и HBM3E другим разработчикам решений искусственного интеллекта и высокопроизводительных вычислений, таким как AMD, AWS и Intel. Если они этого не сделают, Nvidia сможет еще больше укрепить свои позиции на растущем рынке оборудования для искусственного интеллекта в 2024 году.
Иван Ковалев
VIA
Центральный процессор, также известный как ЦП, является "сердцем" для каждого ПК. Этот кусок кремния сильно влияет на