O lançamento do ChatGPT, no fim de 2022, deu a partida para o hype da inteligência artificial generativa. E para os cheques recheados de dígitos captados pela OpenAI, dona da ferramenta, e por outros Large Language Models (LLMs), os motores por trás dessa tecnologia.

Até aqui, porém, a corrida bilionária dos LLMs se concentrou em poucos nomes. E em duas geografias: os Estados Unidos, com a própria OpenAI, que já captou mais de US$ 200 bilhões, a Anthropic, o Google e a xAI. Além da China, com players como a DeepSeek.

Mas há quem esteja disposto a desafiar os prognósticos desse páreo. Um estudo da Universidade Federal de Goiás (UFG) identificou mais de 50 LLMs desenvolvidos no Brasil, o que traz à tona o seguinte “prompt”: há, de fato, lugar para os “ChatGPTs brasileiros” nesse mapa e eles vão sobreviver à corrida da IA?

“EUA e China têm recursos numa escala incomparável”, diz Patricia Magalhães, cofundadora e CEO da NeuralMind, ao NeoFeed. “Não se trata de substituir esses modelos globais. Mas de criar uma posição que nos dê alguma vantagem e soberania. Não podemos ser 100% dependentes de AIs externas.”

Fundada em 2017, a partir dos laboratórios da Unicamp e muito antes do barulho gerado pelo ChatGPT, a NeuralMind é um exemplo dessa disputa entre Davi e Golias. A startup soma R$ 20 milhões captados, o que inclui um aporte de R$ 1 milhão da Fundepar e recursos de fomento de órgãos como a Finep.

Mas essa diferença substancial de recursos não impede que a empresa seja uma das deep techs locais dispostas a provar que há um caminho viável para os LLMs made in Brazil, sejam elas criadas do zero ou a partir de modelos já pré-treinados. Uma tese que encontra eco em outras vozes do mercado.

Para Anderson Soares, vice-presidente da AI Brasil e coordenador do Centro de Excelência em Inteligência Artificial da UFG, é difícil bater de frente com LLMs generalistas como o ChatGPT e o Claude, da Anthropic. Mas há um bom atalho nos modelos especializados em nichos e particularidades locais.

“O Brasil tem problemas singulares e é um campo de validação muito propício para quase tudo, em diferentes setores”, diz Soares. “A saúde, por exemplo, é uma máquina de dados que poucos países têm, assim como os mercados financeiro e jurídico, que estão muito avançados em digitalização.”

Para Soares, embora o Brasil tenha um porte relevante, entrar nesse nível de detalhe por aqui não estaria na lista de prioridades dos grandes modelos globais. Ao menos nesse momento, pelo fato de o País estar atrás de mercados como a própria América do Norte, a Europa e a Ásia.

Cofundador e Chief AI Officer do Distrito, Gustavo Araújo reforça esse coro. “Não dá para pegar um modelo de saúde dos EUA e fazer um copy and paste”, diz. “E o fato de ter LLMs locais permite que as empresas aqui não fiquem reféns dos termos e condições de um ou dois grandes provedores.”

Em paralelo, um movimento encampado por um player que dita as regras do jogo em outro elo essencial da cadeia da IA generativa, promete mexer com o tabuleiro dos LLMs. O que também pode favorecer os modelos brasileiros.

“Há uma mudança relevante na estratégia da Nvidia, que vem estimulando a construção de outros modelos e puxando uma descentralização nessa arena”, diz Araújo. “Afinal, ela não quer ter 60% da sua receita dependente de quatro ou cinco players.”

Patricia Magalhães, cofundadora e CEO da NeuralMind

De olho nessa brecha e com um portfólio com modelos, um motor de busca proprietário e aplicações, a NeuralMind está focada em setores como saúde, energia e jurídico. E já atende clientes como o Tribunal de Contas da União, a Agência Nacional de Saúde Suplementar e o Hospital das Clínicas de Porto Alegre.

Além de um spin-off da sua vertical de saúde, o plano da empresa é se posicionar como uma legal tech, o que passa pelo desenvolvimento, em parceria com o Escavador, da Jurema, uma família de modelos para tarefas jurídicas. Magalhães tem o veredito que baliza essas estratégias.

“Estamos falando de setores extremamente regulados e de infraestruturas críticas com pouca margem de erro”, diz a CEO da NeuralMind. “Então, depender de um modelo estrangeiro é um risco real. Você pode ter variação de preço, em dólar, de políticas de uso e impactos de instabilidades geopolíticas, que não são improváveis”

Sotaque local

Esse acento local também se traduz nos nomes de alguns LLMs e deep techs locais. Entre eles, o Sabiá, da Maritaca AI, uma das pioneiras na área, além de Cabrita, Bode, Samba e Amazônia IA. E, a partir desse sotaque, a Clarice.ai é uma das startups buscando provar que pode ser um bicho diferente.

Fundada por Felipe Iszlaji, formado em linguística computacional e com pós-doutorado em computação criativa e IA, a empresa nasceu em 2020, ano do centenário da escritora Clarice Lispector, que inspirou seu nome. E aposta em modelos para escrever, editar, revisar e humanizar textos em português.

Após criar dois Small Language Models (SLMs), a Clarice.ai está desenvolvendo uma terceira versão mais parruda, visando aprimorar, no mínimo, 30% da sua acurácia. O que, de um lado, busca reforçar sua diferenciação. E, de outro, mostra como a startup já avançou boas casas com sua proposta.

“Estamos treinando e refinando esse modelo com nossos próprios dados”, diz Iszlaji. “Todo mês, temos 1,5 milhão de correções que são validadas pelos nossos usuários.”

A Clarice.ai contabiliza mais de 500 mil usuários desde a sua criação – são 80 mil ativos hoje no B2C, onde tem dois planos de assinatura. Já no B2B, frente que a companhia começa a desenvolver, são cerca de cem assinantes, entre eles, editoras e grupos de mídia como a mineira Itatiaia.

Quem também aposta em dados proprietários é a NeoSpace. Mas sob outra ótica e a partir de um conceito batizado de Data Language Model (DLM), que, diferentemente dos LLMs e SLMs, não é alimentado apenas por mecanismos de linguagem, e sim, por qualquer formato de dado e documento.

Partindo desse princípio, a empresa fornece plataformas para que empresas como bancos, seguradoras e operadoras de telecom treinem seus modelos a partir de seus próprios dados. A ideia é abrir espaço para aplicações que vão desde aprimorar o atendimento até antecipar comportamentos de clientes.

“A gente entrega o cérebro, o DNA, o filho recém-nascido. Mas ele vai estudar e aprender com os dados daquela empresa”, diz Bruno Pierobon, cofundador da NeoSpace. “Isso é algo que uma OpenAI e uma Anthropic não têm. Não estamos competindo no mesmo dado, o que nos dá uma boa blindagem.”

Bruno Pierobon, cofundador e CEO da NeoSpace

A NeoSpace também se diferencia em outro ponto, aqui, em relação a boa parte dos seus pares locais, ainda com pouco acesso a investimentos. Criada no fim de 2023 pelos fundadores da Zup, comprada pelo Itaú em 2019, a startup atraiu, em 2025, um aporte liderado pelo próprio banco.

Na rodada de US$ 18 milhões, o Itaú teve a companhia de investidores-anjo como Martin Escobari, da General Atlantic, Micky Malka, da Ribbit Capital e Nigel Morris, da QED. E a empresa foi avaliada em US$ 100 milhões.

A cifra ajudou a contornar um dos grandes desafios das deep techs por trás desses LLMs: o alto custo para treinar e aprimorar os modelos. Até então, capitalizados com o exit da Zup, os sócios da NeoSpace haviam investido R$ 10 milhões do próprio bolso.

“É difícil competir com a capacidade computacional desses grandes players”, diz Pierobon. “Enquanto lá eles erram em cem treinos por mês, nós erramos em apenas um.”

A rodada também contribuiu para que a NeoSpace avançasse nas conversas com clientes. Além do próprio Itaú, a startup tem 12 negociações avançadas, inclusive no exterior – já são duas possibilidades nos Estados Unidos, onde a empresa está montando um escritório, e uma na Europa.

Pierobon ressalta que o fato de terem um histórico com a Zup e os investidores ajudou a abrir as portas para a rodada, mesmo a tese sendo mais complexa e num setor, à primeira vista, bastante arriscado.

“Acho que essa é a primeira vez que estamos tendo um movimento de startups que une, de fato, a academia com o business”, diz. “Então, às vezes pode ser difícil estruturar as duas pontas e empacotar essa tese para os investidores.”

Da academia ao mercado

Everton Gago é um dos nomes que mesclam esses dois mundos. Com mais de 20 anos de experiência em IA, divididos entre a academia, na Unicamp, e empresas como a Ci&T, ele fundou a infinity6 em 2024, ao lado de Leonardo Chaves.

Desde então, a deep tech levantou dois aportes de um fundo não revelado, que somam R$ 10 milhões. O que atraiu o investidor misterioso é uma tese também centrada em modelos treinados com dados dos clientes – dos históricos guardados a informações em tempo real.

Esse portfólio envolve três motores dedicados a três tarefas: recomendação, previsão e precificação. E já é usado por indústrias, em particular, farmacêuticas e alimentícias; bancos de médio porte; e varejistas, em sua maioria, em operações de e-commerce.

“Os bancos nos contratam, por exemplo, para ajudar a entender qual produto deve ser recomendado para um determinado cliente e em qual momento”, diz Gago. “Nossa proposta é ROI na veia. Em farma, temos conseguido resultados expressivos, com cerca de 23% de aumento no tíquete médio.”

A infinity6 também investe em modelos criados do zero, que dão suporte a outros formatos de dados e documentos, assim como a NeoSpace. E, ao mesmo tempo, em modelos menores, que exigem menos poder computacional para serem treinados e operados.

“Treinar um motor grande como o GPT 5.0 demanda alguns bilhões de dólares”, diz Gago. “Já um modelo pequeno, bem direcionado, custa bem menos, de US$ 1 mil a US$ 2 mil.”

A busca por mais eficiência foi também um dos pilares que guiaram um dos nomes locais mais recentes nesse mercado: a Lua Vision, criada por Paulo Câmara, David Kang e Plínio Ceccon no fim de 2025, após uma estruturação de três anos.

Com um aporte inicial de R$ 100 mil do trio e fruto da tese de doutorado em IA de Câmara na Universidade de Tel Aviv, a deep tech construiu do zero cinco versões do seu LLM – o sexto está a caminho.

“Os LLMs generalistas são grandes bibliotecas, que se propõem a ter o máximo de conhecimento possível”, diz Kang. “Nossa tese é ser o melhor cérebro. O poder de raciocínio do nosso modelo é o foco e não a quantidade de informação que ele contém.”

Os modelos também são treinados com dados dos clientes e rodam no formato on premise, ou seja, instalados nos servidores das empresas. O que, entre outras questões, reduz riscos, além dos gastos com provedores de nuvem.

Essa tese já está sendo testada com provas de conceito no Brasil e no exterior. São cerca de 20 pilotos em segmentos como saúde e educação, o que inclui desde uma iniciativa com mais de 20 mil estudantes na África, custeada pela Microsoft, até um projeto com uma consultoria na América Latina.

“Com esse pipeline, a gente imagina que já tenha receita tracionada no segundo semestre”, diz Kang, “É o que estamos perseguindo agora.”