A AMD
lançou um novo chip de inteligência artificial na quinta-feira que está mirando diretamente nos processadores gráficos de data center da Nvidia, conhecidos como GPUs.
O Instinct MI325X, como o chip é chamado, começará a ser produzido antes do final de 2024, disse a AMD na quinta-feira durante um evento anunciando o novo produto. Se os chips de IA da AMD forem vistos pelos desenvolvedores e gigantes da nuvem como um substituto próximo dos produtos da Nvidia, isso poderá pressionar os preços dos produtos da Nvidia.
isso poderá pressionar os preços da Nvidia, que desfrutou de margens brutas de aproximadamente 75% enquanto suas GPUs estiveram em alta demanda no ano passado.
A IA geradora avançada, como o ChatGPT da OpenAI, requer enormes centros de dados repletos de GPUs para realizar o processamento necessário, o que criou demanda para que mais empresas forneçam chips de IA.
Nos últimos anos, a Nvidia dominou a maior parte do mercado de GPUs de data center, mas a AMD está historicamente em segundo lugar. Agora, a AMD pretende tirar a participação de sua rival do Vale do Silício ou, pelo menos, conquistar uma grande fatia do mercado, que, segundo ela, valerá US$ 500 bilhões até 2028.
“A demanda por IA continuou a decolar e, na verdade, superou as expectativas. Está claro que a taxa de investimento continua a crescer em todos os lugares”, disse a CEO da AMD, Lisa Su, no evento.
A AMD não revelou novos clientes importantes de nuvem ou internet para suas GPUs Instinct no evento, mas a empresa já havia divulgado anteriormente que tanto a Meta
e a Microsoft
compram suas GPUs de IA e que a OpenAI as utiliza para alguns aplicativos. A empresa também não divulgou o preço do Instinct MI325X, que normalmente é vendido como parte de um servidor completo.
Com o lançamento do MI325X, a AMD está acelerando seu cronograma de produtos para lançar novos chips em um cronograma anual para competir melhor com a Nvidia e aproveitar o boom dos chips de IA. O novo chip de IA é o sucessor do MI300X, que começou a ser comercializado no final do ano passado. O chip de 2025 da AMD será chamado de MI350, e seu chip de 2026 será chamado de MI400, disse a empresa.
O lançamento do MI325X o colocará contra os próximos chips Blackwell da Nvidia, que, segundo a Nvidia, começarão a ser enviados em quantidades significativas no início do próximo ano.
Um lançamento bem-sucedido da mais nova GPU de data center da AMD poderia atrair o interesse de investidores que estão procurando outras empresas que estão na fila para se beneficiar do boom da IA. A AMD subiu apenas 20% até agora em 2024, enquanto as ações da Nvidia subiram mais de 175%. A maioria das estimativas do setor diz que a Nvidia tem mais de 90% do mercado de chips de IA para data centers.
As ações da AMD caíram 4% na quinta-feira. As ações da Nvidia subiram cerca de 1%.
O maior obstáculo da AMD para conquistar participação de mercado é que os chips da rival usam sua própria linguagem de programação, a CUDA, que se tornou padrão entre os desenvolvedores de IA. Isso essencialmente prende os desenvolvedores ao ecossistema da Nvidia.
Em resposta, a AMD disse esta semana que vem aprimorando seu software concorrente, chamado ROCm, para que os desenvolvedores de IA possam facilmente mudar mais de seus modelos de IA para os chips da AMD, que ela chama de aceleradores.
A AMD considerou seus aceleradores de IA mais competitivos para casos de uso em que os modelos de IA estão criando conteúdo ou fazendo previsões, em vez de quando um modelo de IA está processando terabytes de dados para melhorar. Isso se deve em parte à memória avançada que a AMD está usando em seu chip, disse, o que lhe permite servir o modelo de IA Llama da Meta mais rapidamente do que alguns chips da Nvidia.
“O que você vê é que a plataforma MI325 oferece até 40% mais desempenho de inferência do que o H200 no Llama 3.1”, disse Su, referindo-se ao modelo de IA de linguagem grande da Meta.
modelo de IA de linguagem grande da Meta.
Também enfrentando a Intel
Embora os aceleradores de IA e as GPUs tenham se tornado a parte mais intensamente observada da indústria de semicondutores, o negócio principal da AMD tem sido os processadores centrais, ou CPUs, que estão no coração de quase todos os servidores do mundo.
As vendas de data center da AMD durante o trimestre de junho mais do que dobraram no ano passado, chegando a US$ 2,8 bilhões, com os chips de IA respondendo por apenas cerca de US$ 1 bilhão, informou a empresa em julho.
A AMD fica com cerca de 34% do total de dólares gastos em CPUs de data center, disse a empresa. Isso ainda é menos do que a Intel
que continua sendo a líder do mercado com sua linha de chips Xeon. A AMD pretende mudar isso com uma nova linha de CPUs, chamada EPYC 5th Gen, que também foi anunciada na quinta-feira.
Esses chips vêm em várias configurações diferentes, desde um chip de 8 núcleos de baixo custo e baixo consumo de energia que custa US$ 527 até processadores de 192 núcleos e 500 watts destinados a supercomputadores que custam US$ 14.813 por chip.
As novas CPUs são particularmente boas para alimentar dados em cargas de trabalho de IA, disse a AMD. Quase todas as GPUs exigem uma CPU no mesmo sistema para inicializar o computador.
“A IA de hoje é realmente sobre a capacidade da CPU, e você vê isso na análise de dados e em muitos desses tipos de aplicativos”, disse Su.
Fonte: Andre Lug