A OpenAI, empresa responsável pelo ChatGPT, está avaliando mudanças importantes na tecnologia que mantém seus sistemas funcionando. A ideia é simples: fazer com que as respostas cheguem mais rápido aos usuários, gastar menos com operação e não depender tanto de um único fornecedor de chips.
Hoje, a maior parte da estrutura da OpenAI usa chips da Nvidia. Esses chips são muito bons para a fase de treinamento da inteligência artificial, que é quando o sistema aprende analisando grandes quantidades de dados. No entanto, no uso do dia a dia quando milhões de pessoas fazem perguntas ao mesmo tempo a empresa entende que esse tipo de chip já não atende tão bem às necessidades.

O que está por trás da mudança
De acordo com informações publicadas pela Reuters, a OpenAI acredita que os chips atuais não entregam a velocidade ideal para tarefas mais pesadas, como criar códigos de programação ou responder perguntas mais longas e detalhadas.
Por isso, a empresa começou a buscar chips diferentes, que usam um tipo de memória chamada SRAM. Essa memória fica dentro do próprio chip e permite acesso mais rápido às informações. Na prática, isso pode deixar o ChatGPT mais ágil e com respostas quase imediatas.
O plano da OpenAI é que, no futuro, cerca de 10% da capacidade usada para responder usuários venha desses novos chips. Pode parecer pouco, mas já é um passo importante para reduzir riscos e melhorar o desempenho geral do sistema.
Novos parceiros ganham espaço
Para avançar nessa estratégia, a OpenAI fechou parceria com a Cerebras e também passou a usar alguns processadores da AMD. Esses chips foram pensados justamente para lidar melhor com respostas rápidas e uso constante.
Esse movimento fez a Nvidia reagir. A empresa licenciou tecnologia da Groq, que também desenvolve chips focados em velocidade, tentando evitar a perda de espaço nesse mercado que cresce rapidamente.
Reflexos financeiros chegam à Oracle
Essa mudança de rota não afeta apenas quem fabrica chips. A Oracle, que firmou um contrato bilionário para fornecer computação em nuvem à OpenAI, também entrou em alerta.
Segundo o Wall Street Journal, a Oracle está investindo pesado na construção de grandes data centers contando com pagamentos futuros da OpenAI. Para reforçar o caixa e acalmar investidores, a empresa anunciou a intenção de vender novas ações nos próximos anos.
Discurso público é cauteloso
Apesar dos rumores de tensão, o CEO da Nvidia, Jensen Huang, afirmou que não existe conflito com a OpenAI e que a empresa ainda pretende investir na startup, mesmo que com valores menores do que os comentados anteriormente.
Já o CEO da OpenAI, Sam Altman, manteve um tom respeitoso ao falar da Nvidia, elogiando publicamente a qualidade dos chips. A postura mostra que, embora esteja buscando alternativas, a OpenAI prefere manter boas relações com parceiros importantes.
Concorrência aumenta a pressão
Enquanto isso, empresas como Google e Anthropic já utilizam chips próprios, criados para oferecer respostas rápidas e gastar menos energia. Isso aumenta a pressão sobre a OpenAI, que precisa acompanhar essa evolução para não ficar para trás.
O desafio é grande. A OpenAI assumiu compromissos financeiros enormes para os próximos anos e precisa garantir que sua tecnologia seja eficiente, rápida e sustentável. Resolver esse ponto técnico deixou de ser uma escolha e virou uma necessidade para o futuro da empresa.
