Когда у тебя все GPU раскупают быстрее, чем горячие пирожки на вокзале, самое время… перестать играть в облачного провайдера. Примерно так и решила Nvidia, аккуратно сложив амбиции собственного публичного облака обратно в инженерный отдел.

Как из «облака для всех» сделали «облако для своих»

DGX Cloud стартовал в 2023‑м как красивый сервис: берём фирменные DGX‑системы, упаковываем в арендуемые кластеры на базе H100, ставим полный софт Nvidia — и вперёд, обучайте свою супер‑нейросеть, не строя дата‑центр.

Физически всё это жило не в дата‑центрах Nvidia, а на инфраструктуре AWS, Google Cloud, Oracle и Microsoft Azure. То есть Nvidia как бы надевала свою «облачную шапку» поверх чужих серверных. Задумка понятная: дать компаниям «эталонную» платформу ИИ‑вычислений.

Но по факту всплыли три проблемы:

  • Цена — выше, чем у «обычных» GPU‑инстансов у тех же облаков.
  • Интеграция — не всегда дружила с уже существующими инструментами и пайплайнами.
  • Поддержка — клиент зависел сразу от Nvidia и облачного партнёра, а это боль для любых крупных внедрений.

Добавим сюда ещё и то, что гиперскейлеры агрессивно снижали цены на H100‑мощности и запускали собственные managed‑сервисы для ИИ. Конкуренция получалась… слегка неловкой.

Когда твой клиент — твой же почти конкурент

Крупнейшая часть дата‑центровой выручки Nvidia идёт от тех же AWS, Microsoft, Google и прочих тучных облаков. Одновременно продавать им горы GPU и пытаться откусить кусок их облачного бизнеса — рецепт конфликтов.

Тем более что каждый из этих гигантов строит свою аппаратную альтернативу:

  • AWS вкладывается в Trainium и Inferentia;
  • Google пушит TPU;
  • Microsoft разворачивает линейку Maia (чипы уже заказывает у Intel Foundry).

При этом все они по‑прежнему глубоко зависят от топовых GPU Nvidia для передовых ИИ‑нагрузок. Для Nvidia логика проста: лучше быть незаменимым поставщиком железа и софта, чем спорным конкурентом в облаках.

Отсюда и решение: DGX Cloud переезжает под крыло инженерного подразделения (во главе с SVP по софту Двайтом Дирксом) и становится внутренней платформой для:

  • разработки и тестирования новых GPU (до и после выхода «в кремний»),
  • обучения и отладки собственных ИИ‑моделей,
  • обкатки всего стека Nvidia — от CUDA и TensorRT до сетевых решений.

Облака остаются, просто роли меняются

Важно: Nvidia не «уходит из облаков». Она уходит из роли публичного провайдера, но усиливает себя как базовый слой для чужих облаков:

  • продолжает расширять свой софт‑стек и технологии оркестрации,
  • использует DGX Cloud как полигон, чтобы всё это лучше работало у партнёров,
  • заключает долгосрочные сделки на выкуп GPU‑мощностей (включая аренду своих же чипов у облачных операторов) — чтобы всегда иметь вычислительный запас для R&D.

В итоге все остаются при своих плюшках:
облачные гиганты — без прямого конкурента в лице Nvidia, а Nvidia — с усиленным влиянием в самом центре ИИ‑инфраструктуры. А мы с вами — с пониманием, что «облако Nvidia» никуда не исчезло, оно просто стало закулисной лабораторией, откуда в мир выезжают всё новые поколения железа и софта.