>

NVIDIA caiu 7%. O mercado comemorou o fim da era.

NVIDIA caiu 7%. O mercado comemorou o fim da era.

NVIDIA caiu 7%. O mercado comemorou o fim da era.

Os números dizem outra coisa.

Os números dizem outra coisa.

NVIDIA caiu 7%. O mercado comemorou o fim da era. Os números dizem outra coisa.
NVIDIA caiu 7%. O mercado comemorou o fim da era. Os números dizem outra coisa.

Quando NVIDIA despencou 7% na semana passada, a reação do mercado foi instantânea e uniforme.

Analistas correram para atualizar modelos. Headlines celebraram a chegada do "rival finalmente à altura".

A narrativa era simples e sedutora: Google agora vende TPUs para terceiros, Meta e Anthropic estão comprando, o monopólio acabou.

Mas existe um problema fundamental com essa história.

Ela assume que você pode comparar chips de IA da mesma forma que compara processadores de laptop.

Ela trata hardware de inteligência artificial como commodity, onde o critério de compra é uma tabela de especificações técnicas e preço unitário.

E é exatamente aqui que a análise de mercado mainstream falha.

Porque quando você realmente abre os números de custo por performance, a história que emerge não é a que o mercado está precificando.


O que realmente aconteceu

Vamos começar pelos fatos.

The Information publicou um relatório na semana passada revelando que Google está ativamente vendendo suas TPUs (Tensor Processing Units) para clientes externos, com Meta e Anthropic mencionadas como early adopters.

O mercado tratou isso como notícia bombástica. Mas para quem acompanha infraestrutura de IA de perto, isso era "segredo de polichinelo" há meses.

Anthropic abriu vaga para TPU Kernel Engineer há semanas.

O Head of Compute deles, James Bradbury, é ex-Google, especialista em TPUs e JAX, o equivalente do CUDA da NVIDIA.

TeraWulf anunciou deal com Fluidstack onde Google age como backstop financeiro, exatamente quando Fluidstack fechava acordo com Anthropic.

Os sinais estavam todos lá, mas o mercado só reage quando manchete mainstream confirma.

Isso revela algo importante sobre como capital está sendo alocado em tecnologia hoje.

Não é análise fundamentalista movendo preços. É timing de narrativa chegando em Bloomberg Terminal.


A matemática que ninguém está fazendo

Agora vamos aos números que realmente importam.

Para comparar hardware de IA de forma honesta, você precisa olhar para custo total por unidade de capacidade computacional.

A métrica padrão é dólares por TeraFLOP, ou seja, quanto você paga por trilhão de operações matemáticas por segundo.

Pegamos os dois sistemas topo de linha disponíveis hoje.

  • Do lado do Google, o Ironwood pod com 9.216 TPUs individuais, a maior configuração de servidor único no planeta.

  • Do lado da NVIDIA, o GB300 NVL72, também conhecido como Blackwell Ultra, com 72 GPUs.

Usando estimativas conservadoras baseadas em dados públicos e declarações do próprio Jensen Huang, os números ficam assim.

O pod do Google custa aproximadamente 534 milhões de dólares em preço de varejo e entrega 42.52 ExaFLOPs de throughput teórico. Isso resulta em 12.56 dólares por TeraFLOP de capacidade.

O sistema NVIDIA custa cerca de 4.9 milhões de dólares em investimento direto nos chips e entrega 0.72 ExaFLOPs.

Fazendo a conta, chegamos a 6.81 dólares por TeraFLOP.

A diferença não é marginal. NVIDIA está entregando 85% mais performance por dólar de capital investido em hardware.

O "rival finalmente à altura" é, objetivamente, quase duas vezes mais caro por unidade de capacidade.

Então a pergunta óbvia emerge: se TPUs custam o dobro por unidade de performance, por que empresas como Anthropic e Meta considerariam a mudança?


O que os números de chip não capturam

Aqui é onde a análise superficial de mercado falha completamente.

Porque a decisão de infraestrutura de IA em escala enterprise não é sobre custo de chip.

É sobre economia sistêmica operacional ao longo de 3 a 5 anos.

Custo de capital representa aproximadamente 80% do TCO em infraestrutura de IA, o que faz parecer que essa comparação encerra a discussão.

Mas os outros 20% contêm três variáveis que, em workloads específicos, invertem completamente a matemática.

A primeira é consumo energético por operação.

TPUs são ASICs, chips desenhados para uma tarefa específica, enquanto GPUs mantêm flexibilidade de propósito geral.

Essa diferença de arquitetura se traduz em menos watts consumidos por operação matemática.

Para um data center rodando milhares de aceleradores 24/7, a conta de energia não é detalhe, é linha material no P&L.

A segunda variável é topologia de rede.

NVIDIA usa arquitetura all-to-all onde cada GPU conecta diretamente com todas as outras no servidor.

Google usa torus 3D onde cada TPU conecta com seis vizinhos em estrutura cúbica.

Parece detalhe de engenharia, mas determina eficiência real quando você distribui um workload de treinamento por milhares de chips.

A topologia do Google permite scale-ups de 9.216 unidades onde NVIDIA escala apenas 72, mudando completamente a equação para quem treina modelos frontier que exigem dezenas de milhares de aceleradores trabalhando em paralelo.

A terceira é lock-in de ecossistema.

CUDA da NVIDIA tem 17 anos de investimento acumulado em ferramentas, bibliotecas e know-how de engenheiros.

Migrar infraestrutura significa reescrever kernels, retreinar equipes, refazer pipelines.

O custo não aparece na planilha de compra de hardware, mas é real e significativo.


O que isso significa para decisores

O mercado está precificando a narrativa errada.

Não é "Google versus NVIDIA" chegando em paridade técnica.

É a desintegração da tese one-size-fits-all em infraestrutura de IA.

Para 80% dos casos de uso enterprise, NVIDIA continua objetivamente mais eficiente economicamente.

Se você está rodando inferência em escala moderada, treinando modelos menores, ou precisa de flexibilidade para diferentes workloads, GPUs ainda são resposta óbvia.

Mas para o 1% que importa, aquele que treina Claude e Gemini, a matemática se inverte quando você multiplica por 10.000 chips e 36 meses de operação contínua.

Nessa escala, eficiência energética e topologia de rede começam a pesar mais que custo de capital unitário.

E existe uma terceira camada que não é técnica, é estratégica.

Pela primeira vez em anos, hyperscalers e labs de IA têm alternativa credível para negociação com NVIDIA.

Mesmo que você nunca compre uma TPU, o fato de que a opção existe muda seu poder de barganha em renovações de contrato.


O que o mercado não entendeu

A queda de 7% da NVIDIA não foi sobre ameaça real ao core business deles.

Foi sobre fim da ilusão de que monopólio sem alternativa é posição negociável perpetuamente.

O erro do mercado está em confundir "melhor chip" com "melhor decisão".

São problemas diferentes.

Melhor chip é engenharia.

Melhor decisão é economia sistêmica considerando workload específico, escala de operação, horizonte temporal e estratégia de fornecedor.

NVIDIA não vai perder dominância em 2025.

Mas vai enfrentar, pela primeira vez desde o boom de IA, pressão competitiva real em um segmento específico mas extremamente lucrativo.

E isso muda a dinâmica de pricing power mesmo para clientes que nunca migram.

Para CEOs e CTOs planejando infraestrutura de IA agora, a lição não é "compre TPUs em vez de GPUs".

É que a decisão saiu de óbvia para complexa.

Você agora precisa entender qual workload específico está rodando, em que escala, e fazer matemática de TCO real incluindo energia, topologia e custo de oportunidade de lock-in.

A indústria está descobrindo que hardware de IA não é commodity.

É decisão estratégica altamente dependente de contexto operacional.

Sua empresa está tomando decisões de infraestrutura baseada em benchmark de chip ou em matemática de TCO considerando as três variáveis que realmente movem custo em escala?

Porque uma usa tabela de especificações.

A outra usa planilha de 5 anos.

E a diferença entre as duas pode ser dezenas de milhões de dólares em capital mal alocado.

Quando NVIDIA despencou 7% na semana passada, a reação do mercado foi instantânea e uniforme.

Analistas correram para atualizar modelos. Headlines celebraram a chegada do "rival finalmente à altura".

A narrativa era simples e sedutora: Google agora vende TPUs para terceiros, Meta e Anthropic estão comprando, o monopólio acabou.

Mas existe um problema fundamental com essa história.

Ela assume que você pode comparar chips de IA da mesma forma que compara processadores de laptop.

Ela trata hardware de inteligência artificial como commodity, onde o critério de compra é uma tabela de especificações técnicas e preço unitário.

E é exatamente aqui que a análise de mercado mainstream falha.

Porque quando você realmente abre os números de custo por performance, a história que emerge não é a que o mercado está precificando.


O que realmente aconteceu

Vamos começar pelos fatos.

The Information publicou um relatório na semana passada revelando que Google está ativamente vendendo suas TPUs (Tensor Processing Units) para clientes externos, com Meta e Anthropic mencionadas como early adopters.

O mercado tratou isso como notícia bombástica. Mas para quem acompanha infraestrutura de IA de perto, isso era "segredo de polichinelo" há meses.

Anthropic abriu vaga para TPU Kernel Engineer há semanas.

O Head of Compute deles, James Bradbury, é ex-Google, especialista em TPUs e JAX, o equivalente do CUDA da NVIDIA.

TeraWulf anunciou deal com Fluidstack onde Google age como backstop financeiro, exatamente quando Fluidstack fechava acordo com Anthropic.

Os sinais estavam todos lá, mas o mercado só reage quando manchete mainstream confirma.

Isso revela algo importante sobre como capital está sendo alocado em tecnologia hoje.

Não é análise fundamentalista movendo preços. É timing de narrativa chegando em Bloomberg Terminal.


A matemática que ninguém está fazendo

Agora vamos aos números que realmente importam.

Para comparar hardware de IA de forma honesta, você precisa olhar para custo total por unidade de capacidade computacional.

A métrica padrão é dólares por TeraFLOP, ou seja, quanto você paga por trilhão de operações matemáticas por segundo.

Pegamos os dois sistemas topo de linha disponíveis hoje.

  • Do lado do Google, o Ironwood pod com 9.216 TPUs individuais, a maior configuração de servidor único no planeta.

  • Do lado da NVIDIA, o GB300 NVL72, também conhecido como Blackwell Ultra, com 72 GPUs.

Usando estimativas conservadoras baseadas em dados públicos e declarações do próprio Jensen Huang, os números ficam assim.

O pod do Google custa aproximadamente 534 milhões de dólares em preço de varejo e entrega 42.52 ExaFLOPs de throughput teórico. Isso resulta em 12.56 dólares por TeraFLOP de capacidade.

O sistema NVIDIA custa cerca de 4.9 milhões de dólares em investimento direto nos chips e entrega 0.72 ExaFLOPs.

Fazendo a conta, chegamos a 6.81 dólares por TeraFLOP.

A diferença não é marginal. NVIDIA está entregando 85% mais performance por dólar de capital investido em hardware.

O "rival finalmente à altura" é, objetivamente, quase duas vezes mais caro por unidade de capacidade.

Então a pergunta óbvia emerge: se TPUs custam o dobro por unidade de performance, por que empresas como Anthropic e Meta considerariam a mudança?


O que os números de chip não capturam

Aqui é onde a análise superficial de mercado falha completamente.

Porque a decisão de infraestrutura de IA em escala enterprise não é sobre custo de chip.

É sobre economia sistêmica operacional ao longo de 3 a 5 anos.

Custo de capital representa aproximadamente 80% do TCO em infraestrutura de IA, o que faz parecer que essa comparação encerra a discussão.

Mas os outros 20% contêm três variáveis que, em workloads específicos, invertem completamente a matemática.

A primeira é consumo energético por operação.

TPUs são ASICs, chips desenhados para uma tarefa específica, enquanto GPUs mantêm flexibilidade de propósito geral.

Essa diferença de arquitetura se traduz em menos watts consumidos por operação matemática.

Para um data center rodando milhares de aceleradores 24/7, a conta de energia não é detalhe, é linha material no P&L.

A segunda variável é topologia de rede.

NVIDIA usa arquitetura all-to-all onde cada GPU conecta diretamente com todas as outras no servidor.

Google usa torus 3D onde cada TPU conecta com seis vizinhos em estrutura cúbica.

Parece detalhe de engenharia, mas determina eficiência real quando você distribui um workload de treinamento por milhares de chips.

A topologia do Google permite scale-ups de 9.216 unidades onde NVIDIA escala apenas 72, mudando completamente a equação para quem treina modelos frontier que exigem dezenas de milhares de aceleradores trabalhando em paralelo.

A terceira é lock-in de ecossistema.

CUDA da NVIDIA tem 17 anos de investimento acumulado em ferramentas, bibliotecas e know-how de engenheiros.

Migrar infraestrutura significa reescrever kernels, retreinar equipes, refazer pipelines.

O custo não aparece na planilha de compra de hardware, mas é real e significativo.


O que isso significa para decisores

O mercado está precificando a narrativa errada.

Não é "Google versus NVIDIA" chegando em paridade técnica.

É a desintegração da tese one-size-fits-all em infraestrutura de IA.

Para 80% dos casos de uso enterprise, NVIDIA continua objetivamente mais eficiente economicamente.

Se você está rodando inferência em escala moderada, treinando modelos menores, ou precisa de flexibilidade para diferentes workloads, GPUs ainda são resposta óbvia.

Mas para o 1% que importa, aquele que treina Claude e Gemini, a matemática se inverte quando você multiplica por 10.000 chips e 36 meses de operação contínua.

Nessa escala, eficiência energética e topologia de rede começam a pesar mais que custo de capital unitário.

E existe uma terceira camada que não é técnica, é estratégica.

Pela primeira vez em anos, hyperscalers e labs de IA têm alternativa credível para negociação com NVIDIA.

Mesmo que você nunca compre uma TPU, o fato de que a opção existe muda seu poder de barganha em renovações de contrato.


O que o mercado não entendeu

A queda de 7% da NVIDIA não foi sobre ameaça real ao core business deles.

Foi sobre fim da ilusão de que monopólio sem alternativa é posição negociável perpetuamente.

O erro do mercado está em confundir "melhor chip" com "melhor decisão".

São problemas diferentes.

Melhor chip é engenharia.

Melhor decisão é economia sistêmica considerando workload específico, escala de operação, horizonte temporal e estratégia de fornecedor.

NVIDIA não vai perder dominância em 2025.

Mas vai enfrentar, pela primeira vez desde o boom de IA, pressão competitiva real em um segmento específico mas extremamente lucrativo.

E isso muda a dinâmica de pricing power mesmo para clientes que nunca migram.

Para CEOs e CTOs planejando infraestrutura de IA agora, a lição não é "compre TPUs em vez de GPUs".

É que a decisão saiu de óbvia para complexa.

Você agora precisa entender qual workload específico está rodando, em que escala, e fazer matemática de TCO real incluindo energia, topologia e custo de oportunidade de lock-in.

A indústria está descobrindo que hardware de IA não é commodity.

É decisão estratégica altamente dependente de contexto operacional.

Sua empresa está tomando decisões de infraestrutura baseada em benchmark de chip ou em matemática de TCO considerando as três variáveis que realmente movem custo em escala?

Porque uma usa tabela de especificações.

A outra usa planilha de 5 anos.

E a diferença entre as duas pode ser dezenas de milhões de dólares em capital mal alocado.

Quando NVIDIA despencou 7% na semana passada, a reação do mercado foi instantânea e uniforme.

Analistas correram para atualizar modelos. Headlines celebraram a chegada do "rival finalmente à altura".

A narrativa era simples e sedutora: Google agora vende TPUs para terceiros, Meta e Anthropic estão comprando, o monopólio acabou.

Mas existe um problema fundamental com essa história.

Ela assume que você pode comparar chips de IA da mesma forma que compara processadores de laptop.

Ela trata hardware de inteligência artificial como commodity, onde o critério de compra é uma tabela de especificações técnicas e preço unitário.

E é exatamente aqui que a análise de mercado mainstream falha.

Porque quando você realmente abre os números de custo por performance, a história que emerge não é a que o mercado está precificando.


O que realmente aconteceu

Vamos começar pelos fatos.

The Information publicou um relatório na semana passada revelando que Google está ativamente vendendo suas TPUs (Tensor Processing Units) para clientes externos, com Meta e Anthropic mencionadas como early adopters.

O mercado tratou isso como notícia bombástica. Mas para quem acompanha infraestrutura de IA de perto, isso era "segredo de polichinelo" há meses.

Anthropic abriu vaga para TPU Kernel Engineer há semanas.

O Head of Compute deles, James Bradbury, é ex-Google, especialista em TPUs e JAX, o equivalente do CUDA da NVIDIA.

TeraWulf anunciou deal com Fluidstack onde Google age como backstop financeiro, exatamente quando Fluidstack fechava acordo com Anthropic.

Os sinais estavam todos lá, mas o mercado só reage quando manchete mainstream confirma.

Isso revela algo importante sobre como capital está sendo alocado em tecnologia hoje.

Não é análise fundamentalista movendo preços. É timing de narrativa chegando em Bloomberg Terminal.


A matemática que ninguém está fazendo

Agora vamos aos números que realmente importam.

Para comparar hardware de IA de forma honesta, você precisa olhar para custo total por unidade de capacidade computacional.

A métrica padrão é dólares por TeraFLOP, ou seja, quanto você paga por trilhão de operações matemáticas por segundo.

Pegamos os dois sistemas topo de linha disponíveis hoje.

  • Do lado do Google, o Ironwood pod com 9.216 TPUs individuais, a maior configuração de servidor único no planeta.

  • Do lado da NVIDIA, o GB300 NVL72, também conhecido como Blackwell Ultra, com 72 GPUs.

Usando estimativas conservadoras baseadas em dados públicos e declarações do próprio Jensen Huang, os números ficam assim.

O pod do Google custa aproximadamente 534 milhões de dólares em preço de varejo e entrega 42.52 ExaFLOPs de throughput teórico. Isso resulta em 12.56 dólares por TeraFLOP de capacidade.

O sistema NVIDIA custa cerca de 4.9 milhões de dólares em investimento direto nos chips e entrega 0.72 ExaFLOPs.

Fazendo a conta, chegamos a 6.81 dólares por TeraFLOP.

A diferença não é marginal. NVIDIA está entregando 85% mais performance por dólar de capital investido em hardware.

O "rival finalmente à altura" é, objetivamente, quase duas vezes mais caro por unidade de capacidade.

Então a pergunta óbvia emerge: se TPUs custam o dobro por unidade de performance, por que empresas como Anthropic e Meta considerariam a mudança?


O que os números de chip não capturam

Aqui é onde a análise superficial de mercado falha completamente.

Porque a decisão de infraestrutura de IA em escala enterprise não é sobre custo de chip.

É sobre economia sistêmica operacional ao longo de 3 a 5 anos.

Custo de capital representa aproximadamente 80% do TCO em infraestrutura de IA, o que faz parecer que essa comparação encerra a discussão.

Mas os outros 20% contêm três variáveis que, em workloads específicos, invertem completamente a matemática.

A primeira é consumo energético por operação.

TPUs são ASICs, chips desenhados para uma tarefa específica, enquanto GPUs mantêm flexibilidade de propósito geral.

Essa diferença de arquitetura se traduz em menos watts consumidos por operação matemática.

Para um data center rodando milhares de aceleradores 24/7, a conta de energia não é detalhe, é linha material no P&L.

A segunda variável é topologia de rede.

NVIDIA usa arquitetura all-to-all onde cada GPU conecta diretamente com todas as outras no servidor.

Google usa torus 3D onde cada TPU conecta com seis vizinhos em estrutura cúbica.

Parece detalhe de engenharia, mas determina eficiência real quando você distribui um workload de treinamento por milhares de chips.

A topologia do Google permite scale-ups de 9.216 unidades onde NVIDIA escala apenas 72, mudando completamente a equação para quem treina modelos frontier que exigem dezenas de milhares de aceleradores trabalhando em paralelo.

A terceira é lock-in de ecossistema.

CUDA da NVIDIA tem 17 anos de investimento acumulado em ferramentas, bibliotecas e know-how de engenheiros.

Migrar infraestrutura significa reescrever kernels, retreinar equipes, refazer pipelines.

O custo não aparece na planilha de compra de hardware, mas é real e significativo.


O que isso significa para decisores

O mercado está precificando a narrativa errada.

Não é "Google versus NVIDIA" chegando em paridade técnica.

É a desintegração da tese one-size-fits-all em infraestrutura de IA.

Para 80% dos casos de uso enterprise, NVIDIA continua objetivamente mais eficiente economicamente.

Se você está rodando inferência em escala moderada, treinando modelos menores, ou precisa de flexibilidade para diferentes workloads, GPUs ainda são resposta óbvia.

Mas para o 1% que importa, aquele que treina Claude e Gemini, a matemática se inverte quando você multiplica por 10.000 chips e 36 meses de operação contínua.

Nessa escala, eficiência energética e topologia de rede começam a pesar mais que custo de capital unitário.

E existe uma terceira camada que não é técnica, é estratégica.

Pela primeira vez em anos, hyperscalers e labs de IA têm alternativa credível para negociação com NVIDIA.

Mesmo que você nunca compre uma TPU, o fato de que a opção existe muda seu poder de barganha em renovações de contrato.


O que o mercado não entendeu

A queda de 7% da NVIDIA não foi sobre ameaça real ao core business deles.

Foi sobre fim da ilusão de que monopólio sem alternativa é posição negociável perpetuamente.

O erro do mercado está em confundir "melhor chip" com "melhor decisão".

São problemas diferentes.

Melhor chip é engenharia.

Melhor decisão é economia sistêmica considerando workload específico, escala de operação, horizonte temporal e estratégia de fornecedor.

NVIDIA não vai perder dominância em 2025.

Mas vai enfrentar, pela primeira vez desde o boom de IA, pressão competitiva real em um segmento específico mas extremamente lucrativo.

E isso muda a dinâmica de pricing power mesmo para clientes que nunca migram.

Para CEOs e CTOs planejando infraestrutura de IA agora, a lição não é "compre TPUs em vez de GPUs".

É que a decisão saiu de óbvia para complexa.

Você agora precisa entender qual workload específico está rodando, em que escala, e fazer matemática de TCO real incluindo energia, topologia e custo de oportunidade de lock-in.

A indústria está descobrindo que hardware de IA não é commodity.

É decisão estratégica altamente dependente de contexto operacional.

Sua empresa está tomando decisões de infraestrutura baseada em benchmark de chip ou em matemática de TCO considerando as três variáveis que realmente movem custo em escala?

Porque uma usa tabela de especificações.

A outra usa planilha de 5 anos.

E a diferença entre as duas pode ser dezenas de milhões de dólares em capital mal alocado.

Quando NVIDIA despencou 7% na semana passada, a reação do mercado foi instantânea e uniforme.

Analistas correram para atualizar modelos. Headlines celebraram a chegada do "rival finalmente à altura".

A narrativa era simples e sedutora: Google agora vende TPUs para terceiros, Meta e Anthropic estão comprando, o monopólio acabou.

Mas existe um problema fundamental com essa história.

Ela assume que você pode comparar chips de IA da mesma forma que compara processadores de laptop.

Ela trata hardware de inteligência artificial como commodity, onde o critério de compra é uma tabela de especificações técnicas e preço unitário.

E é exatamente aqui que a análise de mercado mainstream falha.

Porque quando você realmente abre os números de custo por performance, a história que emerge não é a que o mercado está precificando.


O que realmente aconteceu

Vamos começar pelos fatos.

The Information publicou um relatório na semana passada revelando que Google está ativamente vendendo suas TPUs (Tensor Processing Units) para clientes externos, com Meta e Anthropic mencionadas como early adopters.

O mercado tratou isso como notícia bombástica. Mas para quem acompanha infraestrutura de IA de perto, isso era "segredo de polichinelo" há meses.

Anthropic abriu vaga para TPU Kernel Engineer há semanas.

O Head of Compute deles, James Bradbury, é ex-Google, especialista em TPUs e JAX, o equivalente do CUDA da NVIDIA.

TeraWulf anunciou deal com Fluidstack onde Google age como backstop financeiro, exatamente quando Fluidstack fechava acordo com Anthropic.

Os sinais estavam todos lá, mas o mercado só reage quando manchete mainstream confirma.

Isso revela algo importante sobre como capital está sendo alocado em tecnologia hoje.

Não é análise fundamentalista movendo preços. É timing de narrativa chegando em Bloomberg Terminal.


A matemática que ninguém está fazendo

Agora vamos aos números que realmente importam.

Para comparar hardware de IA de forma honesta, você precisa olhar para custo total por unidade de capacidade computacional.

A métrica padrão é dólares por TeraFLOP, ou seja, quanto você paga por trilhão de operações matemáticas por segundo.

Pegamos os dois sistemas topo de linha disponíveis hoje.

  • Do lado do Google, o Ironwood pod com 9.216 TPUs individuais, a maior configuração de servidor único no planeta.

  • Do lado da NVIDIA, o GB300 NVL72, também conhecido como Blackwell Ultra, com 72 GPUs.

Usando estimativas conservadoras baseadas em dados públicos e declarações do próprio Jensen Huang, os números ficam assim.

O pod do Google custa aproximadamente 534 milhões de dólares em preço de varejo e entrega 42.52 ExaFLOPs de throughput teórico. Isso resulta em 12.56 dólares por TeraFLOP de capacidade.

O sistema NVIDIA custa cerca de 4.9 milhões de dólares em investimento direto nos chips e entrega 0.72 ExaFLOPs.

Fazendo a conta, chegamos a 6.81 dólares por TeraFLOP.

A diferença não é marginal. NVIDIA está entregando 85% mais performance por dólar de capital investido em hardware.

O "rival finalmente à altura" é, objetivamente, quase duas vezes mais caro por unidade de capacidade.

Então a pergunta óbvia emerge: se TPUs custam o dobro por unidade de performance, por que empresas como Anthropic e Meta considerariam a mudança?


O que os números de chip não capturam

Aqui é onde a análise superficial de mercado falha completamente.

Porque a decisão de infraestrutura de IA em escala enterprise não é sobre custo de chip.

É sobre economia sistêmica operacional ao longo de 3 a 5 anos.

Custo de capital representa aproximadamente 80% do TCO em infraestrutura de IA, o que faz parecer que essa comparação encerra a discussão.

Mas os outros 20% contêm três variáveis que, em workloads específicos, invertem completamente a matemática.

A primeira é consumo energético por operação.

TPUs são ASICs, chips desenhados para uma tarefa específica, enquanto GPUs mantêm flexibilidade de propósito geral.

Essa diferença de arquitetura se traduz em menos watts consumidos por operação matemática.

Para um data center rodando milhares de aceleradores 24/7, a conta de energia não é detalhe, é linha material no P&L.

A segunda variável é topologia de rede.

NVIDIA usa arquitetura all-to-all onde cada GPU conecta diretamente com todas as outras no servidor.

Google usa torus 3D onde cada TPU conecta com seis vizinhos em estrutura cúbica.

Parece detalhe de engenharia, mas determina eficiência real quando você distribui um workload de treinamento por milhares de chips.

A topologia do Google permite scale-ups de 9.216 unidades onde NVIDIA escala apenas 72, mudando completamente a equação para quem treina modelos frontier que exigem dezenas de milhares de aceleradores trabalhando em paralelo.

A terceira é lock-in de ecossistema.

CUDA da NVIDIA tem 17 anos de investimento acumulado em ferramentas, bibliotecas e know-how de engenheiros.

Migrar infraestrutura significa reescrever kernels, retreinar equipes, refazer pipelines.

O custo não aparece na planilha de compra de hardware, mas é real e significativo.


O que isso significa para decisores

O mercado está precificando a narrativa errada.

Não é "Google versus NVIDIA" chegando em paridade técnica.

É a desintegração da tese one-size-fits-all em infraestrutura de IA.

Para 80% dos casos de uso enterprise, NVIDIA continua objetivamente mais eficiente economicamente.

Se você está rodando inferência em escala moderada, treinando modelos menores, ou precisa de flexibilidade para diferentes workloads, GPUs ainda são resposta óbvia.

Mas para o 1% que importa, aquele que treina Claude e Gemini, a matemática se inverte quando você multiplica por 10.000 chips e 36 meses de operação contínua.

Nessa escala, eficiência energética e topologia de rede começam a pesar mais que custo de capital unitário.

E existe uma terceira camada que não é técnica, é estratégica.

Pela primeira vez em anos, hyperscalers e labs de IA têm alternativa credível para negociação com NVIDIA.

Mesmo que você nunca compre uma TPU, o fato de que a opção existe muda seu poder de barganha em renovações de contrato.


O que o mercado não entendeu

A queda de 7% da NVIDIA não foi sobre ameaça real ao core business deles.

Foi sobre fim da ilusão de que monopólio sem alternativa é posição negociável perpetuamente.

O erro do mercado está em confundir "melhor chip" com "melhor decisão".

São problemas diferentes.

Melhor chip é engenharia.

Melhor decisão é economia sistêmica considerando workload específico, escala de operação, horizonte temporal e estratégia de fornecedor.

NVIDIA não vai perder dominância em 2025.

Mas vai enfrentar, pela primeira vez desde o boom de IA, pressão competitiva real em um segmento específico mas extremamente lucrativo.

E isso muda a dinâmica de pricing power mesmo para clientes que nunca migram.

Para CEOs e CTOs planejando infraestrutura de IA agora, a lição não é "compre TPUs em vez de GPUs".

É que a decisão saiu de óbvia para complexa.

Você agora precisa entender qual workload específico está rodando, em que escala, e fazer matemática de TCO real incluindo energia, topologia e custo de oportunidade de lock-in.

A indústria está descobrindo que hardware de IA não é commodity.

É decisão estratégica altamente dependente de contexto operacional.

Sua empresa está tomando decisões de infraestrutura baseada em benchmark de chip ou em matemática de TCO considerando as três variáveis que realmente movem custo em escala?

Porque uma usa tabela de especificações.

A outra usa planilha de 5 anos.

E a diferença entre as duas pode ser dezenas de milhões de dólares em capital mal alocado.

Serviços de Consultoria Especializados em
AI para empresas

Serviços de Consultoria Especializados em AI para empresas

Além do AI Discovery, oferecemos serviços complementares para empresas em diferentes estágios de maturidade

We believe in Hybrid Intelligence to redefine how humans and AI create together.

We believe in Hybrid Intelligence to redefine how humans and AI create together.

Comscience

2025 © All right reserved

Comscience

2025 © All right reserved