Inteligência artificial atingiu o seu limite? – 16/08/2025 – Tec

Um homem com cabelo castanho claro e uma camiseta de manga longa marrom está em pé, olhando para a frente. Ao fundo, há um grande logotipo da OpenAI em letras brancas sobre um fundo escuro.

Quando a OpenAI lançou seu aguardado modelo de inteligência artificial, o GPT-5, na semana passada, deveria ser o grande momento da empresa. O CEO da empresa, Sam Altman, anunciou o GPT-5 como “um passo significativo no caminho para a IA generativa”, referindo-se a sistemas de IA que superam a inteligência humana.

Mas os executivos da OpenAI também acreditavam que o novo modelo suavizaria algumas das dificuldades do ChatGPT, o chatbot multifuncional que cresceu mais rápido do que qualquer aplicativo de consumo na história.

“As primeiras impressões deste modelo são muito boas, e acho que as pessoas vão realmente sentir isso”, afirmou Nick Turley, chefe do ChatGPT na OpenAI.

Exceto que as primeiras impressões não foram boas. Logo após o lançamento, usuários compartilharam imagens nas redes sociais do novo modelo cometendo erros básicos que atingiram seus antecessores, como errar dados em um mapa dos EUA. Mais seriamente, usuários avançados dos modelos anteriores da OpenAI expressaram decepção com a mudança na “personalidade” do modelo, e que seu desempenho ficou abaixo do esperado na comparação com concorrentes.

Depois de toda a expectativa, o modelo de linguagem grande é amplamente visto mais como uma melhoria incremental em relação aos seus predecessores, em vez da grande mudança prometida em capacidades como nas versões anteriores do GPT.

“Para o GPT-5… as pessoas esperavam descobrir algo totalmente novo”, afirmou Thomas Wolf, cofundador e diretor científico da startup de IA de código aberto Hugging Face. “E aqui não tivemos realmente isso”.

Após centenas de bilhões de dólares de investimento em IA generativa e na infraestrutura computacional que a alimenta, a questão que repentinamente percorre o Vale do Silício é: e se isso for o melhor que conseguimos?

Nos últimos três anos, pesquisadores, usuários e investidores de IA se acostumaram com um ritmo acelerado de melhorias. Onde antes a OpenAI parecia ter uma liderança insuperável, rivais como Google, Anthropic, DeepSeek e xAI reduziram a distância na corrida pelo desenvolvimento.

Essa disputa alimentou promessas de que a AGI é iminente, com Altman até prevendo que ela chegaria durante a presidência de Donald Trump. Muitas dessas expectativas —que sustentam a nova avaliação de valor de mercado da OpenAI de US$ 500 bilhões— colidiram com a realidade quando o GPT-5 decepcionou.

“O GPT-5 era este ícone central de toda a abordagem de escalonamento para chegar à AGI, e não funcionou”, comentou Gary Marcus, um crítico proeminente da IA e professor emérito de psicologia e ciência neural na Universidade de Nova York.

Stuart Russell, professor de ciência da computação na Universidade da Califórnia, foi um dos primeiros pesquisadores a alertar sobre os perigos das capacidades da IA ultrapassarem a capacidade humana de controlá-las. Mas agora, ele compara o que está acontecendo hoje ao início da história da IA nos anos 1980, quando as inovações da época não conseguiram atender às expectativas e oferecer retorno sobre o investimento.

“Então a bolha estourou. [Os sistemas] não estavam gerando dinheiro, não estávamos encontrando aplicações de alto valor suficientes”, avaliou Russell. “Em poucos meses, é como uma corrida de cadeiras. E todos estão correndo para não ser a última pessoa segurando o bebê da IA”.

Outros argumentam que a tecnologia ainda está em sua início, e que os produtos de IA são extremamente populares e também relativamente novos em sua adoção em aplicações empresariais. Por enquanto, o capital ainda está inundando startups e projetos de infraestrutura de IA.

Mas Russell advertiu que o risco de expectativas elevadas demais pode facilmente se voltar contra os promotores da IA se os investidores decidirem que a bolha está prestes a estourar. “Eles simplesmente correm para as saídas o mais rápido possível”, comentou. “E assim as coisas podem ruir muito, muito, muito rapidamente”.

Parte do problema está na maneira como as empresas têm construído modelos de linguagem grandes.

Nos últimos cinco anos, empresas como OpenAI e Anthropic conseguiram mostrar ganhos consistentes no desempenho de seus sistemas usando uma fórmula simples: mais dados e mais poder computacional equivalem a modelos maiores e melhores.

Muitos líderes de IA ainda acreditam que essas “leis de escala” podem continuar valendo por anos. Mas a abordagem está começando a atingir os limites dos recursos disponíveis.

Primeiro, as empresas de IA absorveram todos os dados de treinamento gratuitos disponíveis na internet. Agora elas estão buscando mais combustível para seus modelos fazendo acordos de compartilhamento de dados com editoras e detentores de direitos autorais, mas não está claro se isso é suficiente para avançar a fronteira. (O Financial Times e a OpenAI têm um acordo de compartilhamento de conteúdo.)

Os laboratórios de IA também são limitados pelo poder computacional. É muito oneroso em energia treinar e executar grandes modelos de IA. Em 2022, o GPT-4 foi treinado em vários milhares de chips da Nvidia. Estimativas sugerem que o GPT-5 foi treinado em centenas de milhares de processadores de próxima geração da Nvidia, com chips ainda mais poderosos a caminho.

Altman reconheceu esta semana que sua empresa está esbarrando em alguns limites. Enquanto os modelos de IA subjacentes “ainda estão melhorando em um ritmo rápido”, disse ele a repórteres em um jantar em San Francisco, chatbots como o ChatGPT “não vão melhorar muito mais”.

Alguns pesquisadores de IA dizem que o foco esmagador no escalonamento de grandes modelos de linguagem e transformers —a arquitetura que sustenta a tecnologia, criada pelo Google em 2016— teve por si só um efeito limitante, ocorrendo às custas de outras abordagens.

“Estamos entrando em uma fase de retornos decrescentes com LLMs puros treinados com texto”, indicou Yann LeCun, cientista-chefe da Meta, que é considerado um dos “padrinhos” da IA moderna. “Mas definitivamente não estamos atingindo um teto com sistemas de IA baseados em aprendizado profundo treinados para entender o mundo real através de vídeo e outras modalidades”.

Esses chamados modelos de mundo são treinados em elementos do mundo físico além da linguagem, e são capazes de planejar, raciocinar e ter memória persistente. A nova arquitetura ainda pode impulsionar o progresso em carros autônomos, robótica ou até mesmo assistentes de IA sofisticados.

“Existem enormes áreas para melhoria… mas precisamos de novas estratégias para chegar [lá]”, avaliou Joelle Pineau, ex-líder de pesquisa de IA da Meta, agora diretora de IA na startup Cohere. “Simplesmente continuar adicionando poder computacional e visar uma AGI teórica não será suficiente”.

Suspeitas de que o ritmo de desenvolvimento da IA está desacelerando já começam a influenciar a política comercial e tecnológica dos EUA.

Durante a administração do presidente Joe Biden, a prioridade estava na segurança e regulamentação. Muitos assessores haviam sido convencidos por executivos do Vale do Silício de que o crescimento acentuado das capacidades da IA poderia ter consequências perigosas até o final da década.

As tendências libertárias de Donald Trump significavam que a regulamentação da IA provavelmente seria uma prioridade menor do que havia sido para a administração Biden. Mas mesmo há apenas alguns meses, preocupações com a segurança nacional pareciam estar ganhando destaque, com Washington ameaçando apertar os controles de exportação dos chips H20 da Nvidia, que haviam sido projetados para desenvolvedores de IA na China.

Um sinal de que a visão predominante em Washington estava mudando veio de David Sacks, czar da IA de Trump. Em uma longa publicação no X (antigo Twitter) no início deste mês, Sacks declarou: “Previsões apocalípticas de perda de empregos são tão exageradas quanto a própria AGI”.

Em vez de uma AGI que se aprimora rapidamente, o mercado de IA alcançou um estado de equilíbrio “ideal”, escreveu ele, com várias empresas em competição acirrada e um papel claro para os humanos na direção do que a IA faz.

Logo depois, Trump fechou um novo acordo com o chefe da Nvidia, Jensen Huang, para reiniciar suas vendas de H20 para a China e disse que até consideraria permitir que uma versão modificada dos sistemas Blackwell mais poderosos da fabricante de chips fosse vendida para a China.

Analistas dizem que, com a AGI não sendo mais considerada um risco, o foco de Washington mudou para garantir que os chips e modelos de IA fabricados nos EUA dominem o mundo.

“A atual administração [dos EUA] deixa claro que quer fazer mais engajamento internacional, trabalhando com outros países para ajudá-los a adotar a IA americana”, apontou Keegan McBride, consultor sênior de política em tecnologia do Instituto Tony Blair. “Isso representa uma mudança significativa em relação aos esforços anteriores, e provavelmente se deve a uma crença diferente na probabilidade de um cenário de decolagem rápida da AGI”.

Pode não ter sido a intenção da OpenAI, mas o que o lançamento do GPT-5 deixa claro é que a natureza da corrida da IA mudou.

Em vez de simplesmente construir modelos maiores e mais brilhantes, segundo Sayash Kapoor, pesquisador da Universidade de Princeton, as empresas de IA estão “lentamente se conscientizando de que estão construindo infraestrutura para produtos”.

Kapoor e sua equipe avaliaram os principais modelos de IA para ver como se saíam quando aplicados a tarefas que vão desde pesquisa científica a tarefas na web, programação e atendimento ao cliente.

Em vez de ser notavelmente inferior, o desempenho do GPT-5 teve consistentemente um nível médio em diferentes tarefas. “O lugar onde ele realmente se destaca é que é bastante econômico e também muito mais rápido do que outros modelos”, afirmou Kapoor.

Isso poderia abrir as portas para mais inovação nos tipos de produtos e serviços que os modelos de IA são usados para criar, mesmo que não produza avanços extraordinários em direção à AGI ou além, para a chamada superinteligência.

“Faz sentido que, à medida que a IA é aplicada de muitas maneiras úteis, as pessoas se concentrem mais nas aplicações versus ideias mais abstratas como AGI”, analisou Miles Brundage, pesquisador de políticas de IA e ex-funcionário da OpenAI. “Mas é importante não perder de vista o fato de que essas são, de fato, tecnologias extremamente versáteis que ainda estão avançando muito rapidamente, e que o que vemos hoje ainda é muito limitado em comparação com o que está por vir”.

A OpenAI e outras empresas líderes de IA, como Cohere, Mistral e xAI, começaram a empregar os chamados engenheiros de implantação avançada, que são incorporados em empresas clientes para integrar seus modelos nos sistemas de seus clientes.

“As empresas não fariam isso se achassem que estavam perto de automatizar todo o trabalho humano pelo resto do tempo”, indicou Kapoor.

Os investidores do Vale do Silício parecem ter pouca ansiedade com a desaceleração do progresso na IA. As avaliações de startups continuam a disparar, assim como as ações impulsionadas pela IA em Wall Street, com a Nvidia, cuja avaliação subiu cerca de 25% nos últimos três meses para US$ 4,4 trilhões, próxima de sua máxima histórica.

As ações do SoftBank —um dos maiores investidores da OpenAI, cujo líder Masayoshi Son fez da criação de superinteligência sua missão orientadora— subiram mais de 50% no último mês. As receitas das empresas de IA podem ainda não se encaixar nos modelos de avaliação tradicionais, mas os gastos e o uso pelos consumidores estão crescendo a taxas sem precedentes.

Os investidores são mais seduzidos pelo crescimento desenfreado do ChatGPT —que elevou as receitas recorrentes anuais da empresa para US$ 12 bilhões— do que pela perspectiva de uma AGI iminente. O produto da empresa, como era o Google anteriormente, “tornou-se o verbo” para aqueles que usam IA, destacou David Schneider, sócio da Coatue Management, investidora da OpenAI.

Muitos acreditam que há uma enorme quantidade de valor ainda a ser desbloqueada na atual geração de modelos. “Startups e empresas mal começaram a arranhar a superfície do que eles são capazes em aplicações comerciais e de consumo”, previu Peter Deng, ex-executivo da OpenAI, Uber e Facebook, agora sócio geral da empresa de capital de risco Felicis, que investiu na empresa de codificação de IA Poolside e na startup de geração de vídeo Runway.

O GPT-5 pode ter decepcionado, mas com o Vale do Silício funcionando mais com base em “expectativas” do que em benchmarks científicos, há poucas indicações de que a corrida das cadeiras da IA vai acabar tão cedo. “Ainda há muitas coisas legais para construir”, disse Wolf, “mesmo que não seja AGI ou uma superinteligência maluca”



Fonte ==> Folha SP – TEC

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *