O padrão de código aberto da Anthropic, o Model Context Protocol (MCP), lançado no final de 2024, permite aos usuários conectar modelos de IA e os agentes sobre eles a ferramentas externas em um formato estruturado e confiável. É o mecanismo por trás do sucesso de programação de agentes de IA da Anthropic, Claude Code, permitindo que ele acesse inúmeras funções, como navegação na web e criação de arquivos, imediatamente quando solicitado.
Mas havia um problema: Claude Code normalmente tinha que "ler" o manual de instruções para cada ferramenta disponível, independentemente de ser necessária para a tarefa imediata, utilizando o contexto disponível que poderia ser preenchido com mais informações dos prompts do usuário ou das respostas do agente.
Pelo menos até ontem à noite. A equipe do Claude Code lançou uma atualização que altera fundamentalmente essa equação. Chamado de MCP Tool Search, o recurso apresenta "carregamento lento" para ferramentas de IA, permitindo que os agentes busquem definições de ferramentas dinamicamente somente quando necessário.
É uma mudança que move os agentes de IA de uma arquitetura de força bruta para algo semelhante à moderna engenharia de software – e de acordo com dados iniciais, resolve efetivamente o problema. "inchar" problema que ameaçava sufocar o ecossistema.
O ‘imposto inicial’ sobre agentes
Para compreender o significado da Pesquisa de Ferramentas, é preciso compreender o atrito do sistema anterior. O Model Context Protocol (MCP), lançado em 2024 pela Anthropic como um padrão de código aberto, foi projetado para ser um padrão universal para conectar modelos de IA a fontes de dados e ferramentas – tudo, desde repositórios GitHub até sistemas de arquivos locais.
No entanto, à medida que o ecossistema crescia, também crescia o "imposto inicial."
Thariq Shihipar, membro da equipe técnica da Anthropic, destacou a dimensão do problema no anúncio.
"Descobrimos que os servidores MCP podem ter mais de 50 ferramentas," Shihipar escreveu. "Os usuários estavam documentando configurações com mais de 7 servidores consumindo mais de 67 mil tokens."
Em termos práticos, isso significa que um desenvolvedor que usa um conjunto robusto de ferramentas pode sacrificar 33% ou mais do limite da janela de contexto disponível de 200.000 tokens antes mesmo de digitar um único caractere de um prompt, como apontou o autor do boletim informativo de IA, Aakash Gupta, em uma postagem no X.
O modelo foi efetivamente "leitura" centenas de páginas de documentação técnica para ferramentas que talvez nunca usasse durante aquela sessão.
A análise da comunidade forneceu exemplos ainda mais nítidos.
Gupta observou ainda que um único servidor Docker MCP poderia consumir 125.000 tokens apenas para definir suas 135 ferramentas.
"A velha restrição forçou uma troca brutal," ele escreveu. "Limite seus servidores MCP a 2 a 3 ferramentas principais ou aceite que metade do seu orçamento de contexto desapareça antes de você começar a trabalhar."
Como funciona a pesquisa de ferramentas
A solução que a Antthropic lançou – que Shihipar chamou "um dos nossos recursos mais solicitados no GitHub" – é elegante em sua contenção. Em vez de pré-carregar todas as definições, o Claude Code agora monitora o uso do contexto.
De acordo com as notas de lançamento, o sistema detecta automaticamente quando as descrições das ferramentas consumiriam mais de 10% do contexto disponível.
Quando esse limite é ultrapassado, o sistema muda de estratégia. Em vez de despejar a documentação bruta no prompt, ele carrega um índice de pesquisa leve.
Quando o usuário solicita uma ação específica, digamos, "implantar este contêiner"—Claude Code não verifica uma lista enorme e pré-carregada de 200 comandos. Em vez disso, ele consulta o índice, encontra a definição de ferramenta relevante e coloca apenas essa ferramenta específica no contexto.
"A Pesquisa de Ferramentas inverte a arquitetura," Gupta analisou. "A economia de tokens é dramática: de aproximadamente 134 mil a aproximadamente 5 mil nos testes internos da Anthropic. Isso representa uma redução de 85%, mantendo o acesso total às ferramentas."
Para desenvolvedores que mantêm servidores MCP, isso muda a estratégia de otimização.
Shihipar observou que o campo ‘instruções do servidor’ na definição do MCP – anteriormente um "bom ter"– agora é crítico. Ele atua como os metadados que ajudam Claude "saiba quando procurar suas ferramentas, semelhantes às habilidades."
‘Carregamento lento’ e ganhos de precisão
Embora a economia de tokens seja a métrica principal – economizar dinheiro e memória é sempre popular – o efeito secundário desta atualização pode ser mais importante: foco.
LLMs são notoriamente sensíveis a "distração." Quando a janela de contexto de um modelo está repleta de milhares de linhas de definições de ferramentas irrelevantes, sua capacidade de raciocinar diminui. Isso cria um "agulha no palheiro" problema em que o modelo se esforça para diferenciar entre comandos semelhantes, como `notification-send-user` versus `notification-send-channel`.
Boris Cherny, chefe da Claude Code, enfatizou isso em sua reação ao lançamento no X: "Cada usuário do Claude Code acaba de obter muito mais contexto, melhor acompanhamento de instruções e a capacidade de conectar ainda mais ferramentas."
Os dados comprovam isso. Os benchmarks internos compartilhados pela comunidade indicam que a ativação do Tool Search melhorou a precisão do modelo Opus 4 nas avaliações do MCP de 49% para 74%.
Para o Opus 4.5 mais recente, a precisão saltou de 79,5% para 88,1%.
Ao remover o ruído de centenas de ferramentas não utilizadas, o modelo pode dedicar seu tempo "atenção" mecanismos para a consulta real do usuário e as ferramentas ativas relevantes.
Amadurecendo a pilha
Esta atualização sinaliza um amadurecimento na forma como tratamos a infraestrutura de IA. Nos primórdios de qualquer paradigma de software, a força bruta é comum. Mas à medida que os sistemas aumentam, a eficiência torna-se o principal desafio de engenharia.
Aakash Gupta traçou um paralelo com a evolução de Ambientes de Desenvolvimento Integrados (IDEs) como VSCode ou JetBrains. "O gargalo não eram “muitas ferramentas”.
Ele estava carregando definições de ferramentas, como importações estáticas da era 2020, em vez de carregamento lento da era 2024," ele escreveu. "O VSCode não carrega todas as extensões na inicialização. JetBrains não injeta todos os documentos do plugin na memória."
Ao adotar "carregamento lento"—uma prática recomendada padrão no desenvolvimento de web e software — a Anthropic está reconhecendo que os agentes de IA não são mais apenas novidades; são plataformas de software complexas que exigem disciplina arquitetônica.
Implicações para o ecossistema
Para o usuário final, esta atualização é perfeita: Claude Code simplesmente sente "mais inteligente" e retém mais memória da conversa. Mas para o ecossistema de desenvolvedores, isso abre as comportas.
Anteriormente, havia um "boné macio" sobre quão capaz um agente poderia ser. Os desenvolvedores tiveram que selecionar cuidadosamente seus conjuntos de ferramentas para evitar lobotomizar o modelo com contexto excessivo. Com o Tool Search, esse limite é efetivamente removido. Teoricamente, um agente pode ter acesso a milhares de ferramentas – conectores de banco de dados, scripts de implantação em nuvem, wrappers de API, manipuladores de arquivos locais – sem pagar nenhuma multa até que essas ferramentas sejam realmente tocadas.
Acontece o "economia de contexto" de um modelo de escassez para um modelo de acesso. Como Gupta resumiu, "Eles não estão apenas otimizando o uso do contexto. Eles estão mudando o que “agentes ricos em ferramentas” podem significar."
A atualização será lançada imediatamente para usuários do Claude Code. Para desenvolvedores que criam clientes MCP, a Anthropic recomenda implementar o `ToolSearchTool` para suportar esse carregamento dinâmico, garantindo que, à medida que o futuro agente chegar, ele não fique sem memória antes mesmo de dizer olá.
Fonte ==> Cyberseo