Por que “qual API eu chamo?” é a pergunta errada na era LLM

Por que “qual API eu chamo?” é a pergunta errada na era LLM

Durante décadas, nos adaptamos ao software. Aprendemos comandos shell, memorizamos nomes de métodos HTTP e conectamos SDKs. Cada interface presumia que falaríamos isso é linguagem. Na década de 1980, digitamos ‘grep’, ‘ssh’ e ‘ls’ em um shell; em meados dos anos 2000, invocamos endpoints REST como GET /users; na década de 2010, importamos SDKs (client.orders.list()) para não precisarmos pensar em HTTP. Mas subjacente a cada uma dessas etapas estava a mesma premissa: expor as capacidades de uma forma estruturada para que outros possam invocá-las.

Mas agora estamos entrando no próximo paradigma de interface. Os LLMs modernos estão desafiando a noção de que um usuário deve escolher uma função ou lembrar a assinatura de um método. Em vez de “Qual API devo chamar?” a questão é: “Que resultado estou tentando alcançar?” Em outras palavras, a interface está mudando do código → para a linguagem. Nessa mudança, o Model Context Protocol (MCP) surge como a abstração que permite aos modelos interpretar a intenção humana, descobrir capacidades e executar fluxos de trabalho, expondo efetivamente as funções de software não como os programadores as conhecem, mas como solicitações em linguagem natural.

MCP não é um termo exagerado; vários estudos independentes identificam a mudança arquitetônica necessária para a invocação de ferramentas “consumíveis por LLM”. Um blog dos engenheiros da Akamai descreve a transição de APIs tradicionais para “integrações orientadas por linguagem” para LLMs. Outro artigo acadêmico sobre “fluxos de trabalho de agentes de IA e APIs empresariais” fala sobre como a arquitetura de API empresarial deve evoluir para oferecer suporte a agentes orientados a objetivos, em vez de chamadas acionadas por humanos. Resumindo: não estamos mais apenas projetando APIs para código; estamos projetando capacidades com base na intenção.

Por que isso é importante para as empresas? Porque as empresas estão afogadas em sistemas internos, na expansão da integração e nos custos de formação dos utilizadores. Os trabalhadores lutam não porque não tenham ferramentas, mas porque têm ferramentas demais, cada uma com sua própria interface. Quando a linguagem natural se torna a interface principal, a barreira de “qual função devo chamar?” desaparece. Um blog de negócios recente observou que as interfaces de linguagem natural (NLIs) estão permitindo acesso de autoatendimento aos dados para profissionais de marketing que antes tinham que esperar que os analistas escrevessem SQL. Quando o usuário apenas declara a intenção (como “obter receita do último trimestre para a região X e sinalizar anomalias”), o sistema abaixo pode traduzir isso em chamadas, orquestração, memória de contexto e entregar resultados.

A linguagem natural torna-se não uma conveniência, mas a interface

Para entender como funciona essa evolução, considere a escada da interface:

Era

Interface

Para quem foi construído

CLI

Comandos de shell

Usuários especialistas digitando texto

API

Terminais Web ou RPC

Desenvolvedores integrando sistemas

SDK

Funções de biblioteca

Programadores usando abstrações

Linguagem natural (MCP)

Solicitações baseadas em intenção

Agentes humanos + IA afirmando o que eles querem

Em cada etapa, os humanos tiveram que “aprender a linguagem da máquina”. Com o MCP, a máquina absorve a linguagem humana e resolve o resto. Isso não é apenas uma melhoria de UX, é uma mudança arquitetônica.

No MCP, as funções de código ainda existem: acesso a dados, lógica de negócios e orquestração. Mas eles são descobertos em vez de invocados manualmente. Por exemplo, em vez de ligar "faturamentoApi.fetchInvoices(customerId=…)," você diz “Mostre todas as faturas da Acme Corp desde janeiro e destaque quaisquer pagamentos atrasados”. O modelo resolve as entidades, chama os sistemas certos, filtra e retorna insights estruturados. O trabalho do desenvolvedor muda da fiação de pontos finais para a definição de superfícies de capacidade e guarda-corpos.

Essa mudança transforma a experiência do desenvolvedor e a integração empresarial. As equipes muitas vezes têm dificuldade para integrar novas ferramentas porque exigem mapeamento de esquemas, escrita de código cola e treinamento de usuários. Com uma interface de linguagem natural, a integração envolve definir nomes de entidades comerciais, declarar capacidades e expô-las por meio do protocolo. O humano (ou agente de IA) não precisa mais saber nomes de parâmetros ou ordem de chamada. Estudos mostram que o uso de LLMs como interfaces para APIs pode reduzir o tempo e os recursos necessários para desenvolver chatbots ou fluxos de trabalho invocados por ferramentas.

A mudança também traz benefícios de produtividade. As empresas que adotam interfaces orientadas por LLM podem transformar a latência de acesso a dados (horas/dias) em latência de conversação (segundos). Por exemplo, se um analista já teve que exportar CSVs, executar transformações e implantar slides, uma interface de linguagem permite “Resumir os cinco principais fatores de risco de rotatividade no último trimestre” e gerar narrativas + recursos visuais de uma só vez. O ser humano então analisa, ajusta e age – passando de encanador de dados a tomador de decisões. Isso importa: de acordo com uma pesquisa da McKinsey & Company, 63% das organizações que usam a geração AI já estão criando resultados de texto e mais de um terço estão gerando imagens ou código. (Embora muitos ainda estejam nos primeiros dias de captura do ROI em toda a empresa, o sinal é claro: a linguagem como interface desbloqueia um novo valor.

Em termos arquitetônicos, isso significa que o design do software deve evoluir. MCP exige sistemas que publiquem metadados de capacidadeapoiar roteamento semântico, manter memória de contexto e impor guarda-corpos. Um design de API não precisa mais perguntar “Qual função o usuário chamará?”, mas sim “Que intenção o usuário pode expressar?” Uma estrutura publicada recentemente para melhorar APIs empresariais para LLMs mostra como as APIs podem ser enriquecidas com metadados compatíveis com linguagem natural para que os agentes possam selecionar ferramentas dinamicamente. A implicação: o software se torna modular em torno de superfícies de intenção em vez de superfícies de função.

Os sistemas que priorizam a linguagem também trazem riscos e requisitos. A linguagem natural é ambígua por natureza, portanto as empresas devem implementar autenticação, registro, proveniência e controle de acesso, assim como fizeram com as APIs. Sem essas proteções, um agente pode chamar o sistema errado, expor dados ou interpretar mal a intenção. Uma postagem sobre “colapso imediato” chama a atenção para o perigo: à medida que a interface de usuário em linguagem natural se torna dominante, o software pode se transformar em “um recurso acessado por meio de conversação” e a empresa em “uma API com interface em linguagem natural”. Essa transformação é poderosa, mas apenas segura se os sistemas forem concebidos para introspecção, auditoria e governação.

A mudança também tem ramificações culturais e organizacionais. Durante décadas, as empresas contrataram engenheiros de integração para projetar APIs e middleware. Com modelos orientados por MCP, as empresas contratarão cada vez mais engenheiros de ontologia, arquitetos de capacidade e especialistas em capacitação de agentes. Essas funções se concentram na definição da semântica das operações de negócios, no mapeamento de entidades de negócios para recursos do sistema e na curadoria da memória de contexto. Como a interface agora é centrada no ser humano, habilidades como conhecimento do domínio, enquadramento imediato, supervisão e avaliação tornam-se centrais.

O que os líderes empresariais devem fazer hoje? Primeiro, pense na linguagem natural como uma camada de interface, não como um complemento sofisticado. Mapeie seus fluxos de trabalho de negócios que podem ser invocados com segurança por meio de linguagem. Em seguida, catalogue os recursos subjacentes que você já possui: serviços de dados, análises e APIs. Em seguida, pergunte: “Eles são detectáveis? Podem ser chamados por meio da intenção?” Por fim, teste uma camada estilo MCP: construa um pequeno domínio (triagem de suporte ao cliente) onde um usuário ou agente possa expressar os resultados em linguagem e deixe os sistemas fazerem a orquestração. Em seguida, itere e dimensione.

A linguagem natural não é apenas o novo front-end. Ela está se tornando a camada de interface padrão para software, substituindo CLI, depois APIs e depois SDKs. MCP é a abstração que torna isso possível. Os benefícios incluem integração mais rápida, sistemas modulares, maior produtividade e novas funções. Para as organizações que ainda estão presas à chamada manual de endpoints, a mudança será como aprender uma nova plataforma novamente. A questão não é mais “qual função devo chamar?” mas “o que eu quero fazer?”

Dhyey Mavani está acelerando a geração de IA e matemática computacional.



Fonte ==> Cyberseo

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *