A Nvidia está usando seu papel dominante em hardware de IA para ganhar uma posição no negócio de software em nuvem.
Não só a Nvidia produz o que é indiscutivelmente o chip de IA mais procurado, a GPU H100, mas a empresa também oferece seu próprio serviço de nuvem, DGX Cloud, desde março. Com isso, a Nvidia está abrindo uma nova área de negócios: a venda de softwares em nuvem e o contato direto com os clientes corporativos de suas GPUs.
Os servidores para DGX Cloud estão localizados em grandes provedores de nuvem: De acordo com o The Information, a Nvidia ofereceu vários provedores no ano passado para alugar seus próprios servidores Nvidia desses provedores de nuvem e alugar o acesso a eles diretamente para desenvolvedores de IA.
A AWS, da Amazon, recusou a oferta, enquanto Microsoft, Google e Oracle concordaram.
Nvidia ganha acesso direto ao cliente
A rigor, os provedores de nuvem não perdem nenhuma receita com o acordo – a Nvidia paga pelos servidores e os aluga a um custo mais alto. Mas os clientes que usam a nuvem DGX da Nvidia são clientes que não estão comprando serviços de IA da AWS, Microsoft, Google ou Oracle.
“Posso entender totalmente por que a Amazon não está participando, porque, no final das contas, é a Nvidia que realmente é dona do relacionamento com o cliente aqui”, disse Stacy Rasgon, analista da Bernstein. Os provedores de nuvem envolvidos no negócio são menores do que a AWS, então eles poderiam teoricamente ganhar participação de mercado da AWS por meio da DGX Cloud, disse Rasgon.
A Nvidia está focada em fornecer a infraestrutura de computação e software que permite que as empresas treinem seus próprios modelos de IA – e depois os executem em qualquer lugar na DGX Cloud. Dessa forma, as empresas não estão vinculadas a um provedor de nuvem específico, mas apenas ao hardware da Nvidia.
Os clientes do serviço DGX Cloud da Nvidia já incluem Adobe, Getty Images e Shutterstock, que usam o serviço da Nvidia para treinar modelos de IA generativos, bem como alguns dos maiores clientes de serviços em nuvem, incluindo a gigante de software de TI ServiceNow, a empresa biofarmacêutica Amgen e a seguradora CCC Intelligent Solutions. No mês passado, o CEO da Nvidia, Jensen Huang, disse a analistas que a DGX Cloud tem sido “um enorme sucesso”.
Nvidia suporta pequenos provedores de nuvem
O objetivo da DGX Cloud, de acordo com a Nvidia, é principalmente usar seu conhecimento de seu próprio hardware para mostrar aos provedores de nuvem como configurar servidores GPU em seus data centers. Estes poderiam, então, escalar as configurações ideais.
Dessa forma, a Nvidia também se beneficia do DGX Cloud fora do contato direto com o cliente, pois um melhor desempenho torna seu próprio hardware mais atraente e, portanto, garante seu próprio domínio no mercado de hardware de IA.
Além disso, a empresa vendeu muitas de suas valiosas GPUs H100 para fornecedores menores, como CoreWeave, Lambda Labs e Crusoe Energy para ajudá-los a competir com os grandes players. Da perspectiva da Nvidia, esse movimento faz sentido à medida que AWS, Microsoft e Google desenvolvem seus próprios chips de IA para reduzir sua dependência da Nvidia.
Fonte: Andre Lug