Startup desafia Nvidia com tecnologia mais rápida para IA
Novo processador da DataPelago surge em uma semana turbulenta para investimentos em inteligência artificial e às vésperas do balanço da Nvidia

Por anos, empresas têm recorrido às GPUs (unidades de processamento gráfico) para lidar com volumes cada vez maiores de dados, aproveitando sua capacidade de realizar milhares de cálculos simultaneamente em tarefas de IA e análise.
Modelos generativos, motores de recomendação e dashboards dependem de bibliotecas de dados para preparar, integrar e transformar conjuntos massivos de informações. Mas há um desafio no caminho: mesmo com os avanços em hardware, o software ainda não consegue explorar todo o potencial das máquinas.
Muitas bibliotecas foram projetadas para CPUs, não para GPUs. O resultado é o desperdício de largura de banda de memória e de capacidade de processamento, além de perda de eficiência toda vez que os dados precisam ir e voltar de um processador para o outro.
Para solucionar esse problema, a Nvidia lançou em 2018 o cuDF, parte da suíte open-source RAPIDS – uma biblioteca de DataFrame acelerada por GPU que rapidamente se tornou referência em operações com dados. O cuDF trouxe ganhos expressivos de velocidade em comparação às bibliotecas para CPU, aproveitando melhor o poder das GPUs.
Ainda assim, ele tem restrições: depende de uma GPU Nvidia com bastante memória e suporte ao CUDA, o que exclui ambientes sem esse tipo de hardware. De certa forma, o cuDF se tornou o “teto” da indústria – rápido e eficiente, mas limitado pelas particularidades da arquitetura de GPU.
NOVOS ALGORITMOS
Agora, a startup DataPelago afirma ter rompido esse teto com seu motor universal de processamento de dados, o Nucleus. Rodando em hardware Nvidia, ele teria alcançado ganhos tão expressivos de desempenho que podem redefinir a economia da aceleração por GPU.
“Para aproveitar de fato os benefícios das GPUs, os processadores precisam maximizar seus pontos fortes e compensar suas limitações”, explica Rajan Goyal, CEO da DataPelago. “Isso exige algoritmos novos, criados especialmente para enormes volumes de dados.”

Os impactos vão além da engenharia. GPUs em nuvem são caras e as empresas sofrem pressão para extrair o máximo de cada ciclo de computação. Quanto mais rápido o processamento, menores os custos e mais rápidos os insights.
Segundo Goyal, o Nucleus foi projetado para rodar em qualquer hardware, processar qualquer tipo de dado e se integrar a frameworks já existentes sem exigir mudanças nos aplicativos dos clientes. “Nós nos adaptamos aos ambientes em que os desenvolvedores já trabalham”, resume.
O curioso é que, mesmo rodando sobre o CUDA, da Nvidia, e suas GPUs, o Nucleus conseguiu entregar um desempenho superior – na prática, superando a Nvidia em sua própria tecnologia.
Segundo JG Chirapurath, presidente da DataPelago, o Nucleus oferece “muito mais performance a partir dos investimentos já feitos em hardware”. Ele lembra que as empresas preferem soluções que aproveitam sua infraestrutura atual em vez de exigir substituições completas.
“O Nucleus foi feito para rodar em qualquer hardware (não apenas GPUs), lidar com qualquer tipo de dado e suportar qualquer motor de consulta. É uma forma de elevar o desempenho de qualquer máquina”, garante.
A PROPOSTA DA DATAPELAGO
Se a proposta da DataPelago ganhar força, empresas podem passar a priorizar eficiência e flexibilidade em vez de ecossistemas fechados de um único fornecedor ao montar suas infraestruturas de inteligência artificial.
No entanto, analistas alertam que benchmarks geralmente mostram resultados melhores em testes controlados do que em cenários reais de produção – e que as rápidas mudanças no mercado de hardware continuam sendo um risco.
“A oferta vai atrair quem busca fugir da dependência de um único fornecedor”, avalia Alvin Nguyen, analista sênior da Forrester. “Mas há uma enorme base de desenvolvedores acostumada ao ecossistema Nvidia, então migrar agora pode significar custos maiores no curto prazo.”
o Nucleus foi projetado para rodar em qualquer hardware, processar qualquer tipo de dado e se integrar a frameworks já existentes.
Nguyen também aponta que o avanço em workloads baseados em transformadores, como o treinamento de grandes modelos, vem desacelerando em relação a anos anteriores. À medida que a inferência supera o treinamento, a força bruta das GPUs deixa de ser o único fator determinante.
Por anos, a indústria de inteligência artificial se concentrou na escassez de chips e na corrida por GPUs cada vez mais poderosas. O Nucleus aponta para outra disputa: se os maiores ganhos agora vêm do software, não do hardware, a batalha pode migrar das fábricas de chips para a inovação em algoritmos.
O futuro da infraestrutura de IA pode depender menos de criar processadores gigantes e mais de repensar como aproveitar melhor os que já existem. “A neutralidade de hardware é uma diferenciação estratégica, não apenas técnica. As empresas querem investimentos que continuem relevantes mesmo com a evolução da tecnologia”, diz Chirapurath.