Когда у тебя все GPU раскупают быстрее, чем горячие пирожки на вокзале, самое время… перестать играть в облачного провайдера. Примерно так и решила Nvidia, аккуратно сложив амбиции собственного публичного облака обратно в инженерный отдел.
Как из «облака для всех» сделали «облако для своих»
DGX Cloud стартовал в 2023‑м как красивый сервис: берём фирменные DGX‑системы, упаковываем в арендуемые кластеры на базе H100, ставим полный софт Nvidia — и вперёд, обучайте свою супер‑нейросеть, не строя дата‑центр.
Физически всё это жило не в дата‑центрах Nvidia, а на инфраструктуре AWS, Google Cloud, Oracle и Microsoft Azure. То есть Nvidia как бы надевала свою «облачную шапку» поверх чужих серверных. Задумка понятная: дать компаниям «эталонную» платформу ИИ‑вычислений.
Но по факту всплыли три проблемы:
- Цена — выше, чем у «обычных» GPU‑инстансов у тех же облаков.
- Интеграция — не всегда дружила с уже существующими инструментами и пайплайнами.
- Поддержка — клиент зависел сразу от Nvidia и облачного партнёра, а это боль для любых крупных внедрений.
Добавим сюда ещё и то, что гиперскейлеры агрессивно снижали цены на H100‑мощности и запускали собственные managed‑сервисы для ИИ. Конкуренция получалась… слегка неловкой.
Когда твой клиент — твой же почти конкурент
Крупнейшая часть дата‑центровой выручки Nvidia идёт от тех же AWS, Microsoft, Google и прочих тучных облаков. Одновременно продавать им горы GPU и пытаться откусить кусок их облачного бизнеса — рецепт конфликтов.
Тем более что каждый из этих гигантов строит свою аппаратную альтернативу:
- AWS вкладывается в Trainium и Inferentia;
- Google пушит TPU;
- Microsoft разворачивает линейку Maia (чипы уже заказывает у Intel Foundry).
При этом все они по‑прежнему глубоко зависят от топовых GPU Nvidia для передовых ИИ‑нагрузок. Для Nvidia логика проста: лучше быть незаменимым поставщиком железа и софта, чем спорным конкурентом в облаках.
Отсюда и решение: DGX Cloud переезжает под крыло инженерного подразделения (во главе с SVP по софту Двайтом Дирксом) и становится внутренней платформой для:
- разработки и тестирования новых GPU (до и после выхода «в кремний»),
- обучения и отладки собственных ИИ‑моделей,
- обкатки всего стека Nvidia — от CUDA и TensorRT до сетевых решений.
Облака остаются, просто роли меняются
Важно: Nvidia не «уходит из облаков». Она уходит из роли публичного провайдера, но усиливает себя как базовый слой для чужих облаков:
- продолжает расширять свой софт‑стек и технологии оркестрации,
- использует DGX Cloud как полигон, чтобы всё это лучше работало у партнёров,
- заключает долгосрочные сделки на выкуп GPU‑мощностей (включая аренду своих же чипов у облачных операторов) — чтобы всегда иметь вычислительный запас для R&D.
В итоге все остаются при своих плюшках:
облачные гиганты — без прямого конкурента в лице Nvidia, а Nvidia — с усиленным влиянием в самом центре ИИ‑инфраструктуры. А мы с вами — с пониманием, что «облако Nvidia» никуда не исчезло, оно просто стало закулисной лабораторией, откуда в мир выезжают всё новые поколения железа и софта.
