
TPUs do Google chegam a São Paulo e impulsionam aplicações com Gemini, reduzindo custos e acelerando adoção de inteligência artificial em empresas brasileiras
O Google Cloud anunciou oficialmente a chegada de seus chips próprios de inteligência artificial os Tensor Processing Units (TPUs) — ao Brasil, com instalação no data center de São Paulo. A medida marca um novo capítulo na estratégia da empresa para fortalecer sua presença na América Latina e atender à crescente demanda por soluções de IA de alto desempenho, acessíveis e alinhadas com as exigências de soberania digital.
Em entrevista à Forbes Brasil, Oliver Parker, vice-presidente global de Go-To-Market para IA no Google Cloud, afirmou que o movimento permitirá que empresas brasileiras operem o Gemini em escala local, com ganhos expressivos de performance e economia.
“O cliente brasileiro terá um desempenho muito maior, estruturas de custos melhores e poderá usar o Gemini em escala”, afirmou Parker.
Segundo dados apresentados durante o Google Cloud Summit, 53% das empresas brasileiras com receita acima de US$ 10 milhões já relatam aumento de faturamento com o uso de IA generativa, número que embasa a decisão da Big Tech de expandir sua infraestrutura local.
O que são os TPUs?
Desenvolvidos internamente pelo Google, os TPUs são chips especializados em acelerar tarefas de aprendizado de máquina e inteligência artificial, sendo mais eficientes que GPUs convencionais para cargas específicas como inferência de linguagem natural e visão computacional. A versão que chega ao Brasil é da sexta geração, usada para operar grandes modelos como o Gemini 2.5.
Além do ganho técnico, a implantação também representa uma resposta estratégica às demandas por soberania e segurança da informação em um contexto global cada vez mais sensível a questões geopolíticas.
“Somos o único provedor que permite que os usuários executem o Gemini em sua própria infraestrutura. Queremos dar liberdade de escolha em ambientes isolados ou regulados”, reforçou Parker.
Soberania de dados e flexibilidade de operação
Para atender clientes com requisitos mais rígidos de controle e privacidade, o Google aposta também na Distributed Cloud (GDC) — uma solução que permite instalar nós de processamento localmente, inclusive fora da infraestrutura do Google, mas ainda com acesso ao poder da IA da empresa.
Essa possibilidade é especialmente relevante para setores regulados como governo, saúde e finanças.
“Se houver necessidade de soberania, isolamento ou operação em ambientes próprios, isso é possível com nossa arquitetura”, explicou Parker.
PME também na mira
Apesar do foco inicial nas grandes empresas, o Google Cloud também desenvolve estratégias voltadas às pequenas e médias empresas (PMEs), oferecendo condições comerciais sob medida e pagamento proporcional ao uso.
Marcel Silva, head de vendas para a América Latina, explicou:
“Temos soluções desde microempreendimentos até grandes corporações. O cliente paga conforme o uso, e muitos projetos combinam baixos custos com resultados sólidos.”
Casos de sucesso no Brasil
O Google Cloud já atua com grandes empresas brasileiras em projetos que combinam IA, cloud e automação:
- Dasa: uso de IA em imagens médicas para acelerar diagnósticos.
- Receita Federal: utilização do Gemini para inspecionar 800 mil pacotes por dia nos aeroportos.
- Globo: reconstrução de imagens históricas, personalização do Globoplay e criação de podcast esportivo narrado por IA.
Esses exemplos mostram como a IA está sendo incorporada na saúde, mídia, logística e governo, com forte impacto na produtividade e inovação.
Projeção para o futuro
A chegada dos TPUs reforça o compromisso do Google com o crescimento do ecossistema digital no Brasil. Segundo Parker, o país está entre os mais promissores no uso de IA generativa e tende a se tornar referência internacional.
“O Brasil é um mercado vibrante e com enorme potencial. Ao trazer os TPUs, damos às empresas brasileiras as mesmas ferramentas que companhias líderes globais usam para inovar com IA.”
