O Google está firmando acordos estratégicos com pequenos provedores de nuvem para disponibilizar suas **TPUs (Tensor Processing Units)** em data centers externos, buscando reduzir a dependência do mercado em relação às GPUs da **Nvidia**.
- Empresas como a londrina Fluidstack já confirmaram a implantação das TPUs em seus centros de dados, incluindo uma unidade em Nova York.
- Outros provedores que atualmente utilizam fortemente GPUs da Nvidia, como Crusoe e CoreWeave, também estão sendo sondados para acordos semelhantes.
- Essa iniciativa visa ampliar a base de clientes de IA e oferecer alternativas além da infraestrutura Nvidia.
Expansão estratégica e novos clientes
Segundo analistas, a movimentação do Google pode estar relacionada tanto à dificuldade em expandir rapidamente sua própria rede de data centers quanto à busca por novos clientes de IA, como desenvolvedores de aplicações. Esse modelo de aluguel de TPUs segue a mesma lógica já consolidada pelo uso de GPUs da Nvidia.
Recentemente, a **OpenAI** recorreu às TPUs do Google para impulsionar o funcionamento do ChatGPT, marcando a primeira grande adoção em escala de chips que não são da Nvidia. Além disso, empresas como **Apple**, Safe Superintelligence e Cohere também aderiram ao uso de TPUs pela familiaridade de suas equipes com a tecnologia.
Competição direta com a Nvidia
A entrada do Google nesse mercado intensifica a concorrência com a Nvidia, que há anos domina o setor com suas GPUs. A estratégia inclui não apenas atrair clientes, mas também oferecer **apoio financeiro**: caso a Fluidstack tenha dificuldades para manter o aluguel de seu espaço em Nova York, o Google poderá investir até US$ 3,2 bilhões para garantir a operação.
Analistas e mercado
De acordo com Gil Luria, analista do banco DA Davidson, cada vez mais provedores e empresas de IA buscam diversificar suas soluções para não ficarem presos a um único fornecedor. “Ninguém gosta de depender de apenas uma fonte em infraestrutura crítica”, destacou.
A resposta da Nvidia
O CEO da Nvidia, Jensen Huang, minimizou a importância das TPUs, ressaltando que os desenvolvedores de IA continuam preferindo as GPUs pela sua versatilidade e pelo vasto ecossistema de software que a Nvidia construiu ao longo dos anos.
Fonte: cenariomt