5 perguntas para Jeetu Patel, presidente e diretor de produtos da Cisco

Jeetu Patel fala sobre como ele enxerga o cenário atual da IA generativa e qual é o papel da empresa nesse contexto

Crédito: Divulgação

Mark Sullivan 3 minutos de leitura

Data centers estão surgindo em todo o mundo para dar suporte à crescente demanda por aplicativos e serviços de IA. A Cisco não é novata nesse setor e vem trabalhando nos últimos anos para se tornar uma peça essencial na estrutura tecnológica da IA.

Conversamos com Jeetu Patel, presidente e diretor de produtos da Cisco, sobre como ele enxerga o cenário atual da IA generativa e qual é o papel da empresa nesse contexto.

Fast Company – Qual é sua visão sobre a transição para a IA generativa?

Jeetu Patel – Estamos saindo de uma fase em que chatbots apenas respondiam de modo inteligente e entrando em uma era na qual agentes de IA realizam tarefas e trabalhos quase que totalmente de forma autônoma em nome dos humanos. Isso vai gerar uma ampliação massiva da capacidade – bilhões e bilhões de agentes sendo incorporados nos próximos anos.

Mas, para isso, será preciso repensar toda a infraestrutura: baixa latência, alto desempenho, eficiência energética e, sobretudo, segurança e confiabilidade, para que os usuários possam confiar nesses sistemas de IA.

Fast Company – Qual é o papel da Cisco nessa estrutura tecnológica da IA?

Jeetu Patel – Na base de tudo, desenvolvemos nosso próprio silício e ASICs (circuitos integrados de aplicação específica) para redes.

Acredito que somos o único fornecedor de silício fora da Nvidia incluído na arquitetura de referência da empresa – ou seja, nossas redes se integram com as GPUs da Nvidia e garantimos que tudo funcione de forma harmônica dentro de uma arquitetura que pode ser implantada pelas empresas.

Hoje não há energia suficiente para suprir toda a demanda por IA.

Além disso, temos nossos próprios sistemas físicos e soluções ópticas para conexão entre data centers a longas distâncias e entre clusters. Também oferecemos plataformas de segurança – a Cisco é um dos maiores players desse mercado.

Fornecemos ainda uma plataforma de dados com o Splunk. E estamos desenvolvendo nossos próprios modelos personalizados voltados à segurança e redes.

Fast Company – Você mencionou latência como um desafio crítico. Qual a importância do tempo de resposta para aplicações de IA?

Jeetu Patel – Se uma agente de voz demora três segundos para responder, você percebe que é um robô e não quer interagir com ele. Mas se a resposta vem em até 500 milissegundos, o comportamento humano muda completamente.

Em nossos testes com usuários, fora a eficácia, latência é um dos fatores mais importantes. O sistema precisa ser interrompível e treinado com inteligência emocional e análise de sentimentos.

Se o usuário está irritado, o agente não pode simplesmente perguntar “como está o tempo hoje?”.

Fast Company – Empresas de IA estão instalando grandes data centers no Oriente Médio porque há energia e espaço disponíveis, ou é para atender melhor aos clientes da região?

Jeetu Patel – As duas coisas. Hoje não há energia suficiente para suprir toda a demanda por IA. O volume de uso que a OpenAI tem, por exemplo, está praticamente quebrando a internet.

Crédito: Divulgação

Eles lançaram um plano de US$ 20 por usuário e, segundo o setor, estão perdendo dinheiro. Criaram então um plano de US$ 200, e provavelmente continuam no prejuízo. Agora existe um plano de US$ 2 mil por usuário, e meu palpite é que continuarão no vermelho.

Mas isso não é ruim: mostra que há uma demanda intrínseca. A procura por data centers vai continuar alta por um bom tempo. Aos poucos, os modelos vão ficar mais eficientes: teremos modelos pequenos com janelas de contexto enormes – talvez com até um milhão de tokens –, exigindo pouca base de dados e baixo consumo para realizar inferência. Mas ainda não chegamos lá.

Fast Company – É por causa dos custos de inferência que eles não conseguem lucrar? Qual é o principal fator de custo?

Jeetu Patel – Hoje, são os custos de uso e das GPUs, que são caros. Mas o foco agora não deve ser lucratividade, e sim conquistar o maior número possível de usuários. O objetivo deve ser integrar o ChatGPT ao fluxo de trabalho diário, tanto para consumidores quanto para empresas. Depois disso, será possível otimizar. Fazer isso agora seria gastar energia no lugar errado.

Há dois sinais muito claros sobre o setor de IA: a Nvidia está extremamente lucrativa e o ChatGPT está operando no prejuízo. Esses dois fatos, juntos, apontam o caminho: a demanda é tão alta que, mesmo com custos elevados, as empresas estão comprando GPUs e aceitando perdas, porque a adoção é gigantesca.


SOBRE O AUTOR

Mark Sullivan é redator sênior da Fast Company e escreve sobre tecnologia emergente, política, inteligência artificial, grandes empres... saiba mais