OpenAI atualiza sua API de respostas para oferecer suporte às habilidades do agente e um terminal completo

OpenAI atualiza sua API de respostas para oferecer suporte às habilidades do agente e um terminal completo

Até recentemente, a prática de construir agentes de IA era um pouco como treinar um corredor de longa distância com memória de trinta segundos.

Sim, você poderia fornecer ferramentas e instruções aos seus modelos de IA, mas depois de algumas dezenas de interações – várias voltas na pista, para estender nossa analogia de corrida – ele inevitavelmente perderia o contexto e começaria a ter alucinações.

Com as atualizações mais recentes da OpenAI em sua API de respostas – a interface de programação de aplicativos que permite aos desenvolvedores da plataforma OpenAI acessar múltiplas ferramentas de agente, como pesquisa na web e pesquisa de arquivos com uma única chamada – a empresa está sinalizando que a era do agente limitado está acabando.

As atualizações anunciadas hoje incluem compactação do lado do servidor, contêineres de shell hospedados e implementação do novo "Habilidades" padrão para agentes.

Com essas três atualizações principais, a OpenAI está efetivamente entregando aos agentes uma mesa permanente, um terminal e uma memória que não desaparece e deve ajudar os agentes a evoluir ainda mais para trabalhadores digitais confiáveis ​​e de longo prazo.

Tecnologia: superando a ‘amnésia de contexto’

O obstáculo técnico mais significativo para os agentes autônomos sempre foi a "desordem" de tarefas de longa duração. Cada vez que um agente chama uma ferramenta ou executa um script, o histórico da conversa aumenta.

Eventualmente, o modelo atinge seu limite de tokens e o desenvolvedor é forçado a truncar o histórico – muitas vezes excluindo o próprio "raciocínio" o agente precisa terminar o trabalho.

A resposta da OpenAI é a compactação do lado do servidor. Ao contrário do simples truncamento, a compactação permite que os agentes funcionem por horas ou até dias.

Os primeiros dados da plataforma de comércio eletrônico Triple Whale sugerem que este é um avanço na estabilidade: seu agente, Moby, navegou com sucesso em uma sessão envolvendo 5 milhões de tokens e 150 chamadas de ferramentas sem queda na precisão.

Em termos práticos, isso significa que o modelo pode "resumir" suas próprias ações passadas em um estado comprimido, mantendo vivo o contexto essencial enquanto elimina o ruído. Ele transforma o modelo de um assistente esquecido em um processo de sistema persistente.

Sandboxes de nuvem gerenciados

A introdução da ferramenta Shell move o OpenAI para o domínio da computação gerenciada. Os desenvolvedores agora podem optar por container_auto, que provisiona um ambiente Debian 12 hospedado em OpenAI.

Este não é apenas um interpretador de código: ele dá a cada agente seu próprio ambiente de terminal completo pré-carregado com:

  • Ambientes de execução nativos incluindo Python 3.11, Node.js 22, Java 17, Go 1.23 e Ruby 3.1.

  • Armazenamento persistente através de /mnt/datapermitindo que os agentes gerem, salvem e baixem artefatos.

  • Capacidades de rede que permitem que os agentes acessem a Internet para instalar bibliotecas ou interagir com APIs de terceiros.

O Hosted Shell e sua persistência /mnt/data O armazenamento fornece um ambiente gerenciado onde os agentes podem realizar transformações complexas de dados usando Python ou Java sem exigir que a equipe crie e mantenha middleware ETL (Extrair, Transformar, Carregar) personalizado para cada projeto de IA.

Ao aproveitar esses contêineres hospedados, os engenheiros de dados podem implementar tarefas de processamento de dados de alto desempenho e, ao mesmo tempo, minimizar o "múltiplas responsabilidades" que acompanham o gerenciamento de infraestrutura sob medida, eliminando a sobrecarga de construção e protegendo seus próprios sandboxes. OpenAI está essencialmente dizendo: “Dê-nos as instruções; nós forneceremos o computador.”

Habilidades da OpenAI vs. Habilidades da Anthropic

Tanto OpenAI quanto Anthropic agora suportam "habilidades," instruções para os agentes executarem operações específicas e convergiram para o mesmo padrão aberto – um SKILL.md (markdown) manifesto com frontmatter YAML.

Uma habilidade desenvolvida para qualquer um deles pode, teoricamente, ser movida para VS Code, Cursor ou qualquer outra plataforma que adote a especificação

Na verdade, o novo agente de IA de código aberto OpenClaw adotou exatamente isso SKILL.md empacotamento baseado em manifesto e pasta, permitindo-lhe herdar uma riqueza de conhecimento processual especializado originalmente projetado para Claude.

Essa compatibilidade arquitetônica alimentou uma iniciativa voltada para a comunidade "boom de habilidades" em plataformas como o ClawHub, que agora hospeda mais de 3.000 extensões criadas pela comunidade, que vão desde integrações residenciais inteligentes até automações complexas de fluxo de trabalho empresarial.

Esta polinização cruzada demonstra que o "Habilidade" tornou-se um ativo portátil e versionado, em vez de um recurso bloqueado pelo fornecedor. Como o OpenClaw oferece suporte a vários modelos — incluindo a série GPT-5 da OpenAI e instâncias locais do Llama — os desenvolvedores agora podem escrever uma habilidade uma vez e implantá-la em um cenário heterogêneo de agentes.

BMas as estratégias subjacentes da OpenAI e da Anthropic revelam visões divergentes para o futuro do trabalho.

A abordagem da OpenAI prioriza um "substrato programável" otimizado para velocidade do desenvolvedor. Ao agrupar o shell, a memória e as habilidades na API Responses, eles oferecem uma "chave na mão" experiência para construir agentes complexos rapidamente.

A startup de pesquisa de IA corporativa Glean já relatou um salto na precisão da ferramenta de 73% para 85% usando a estrutura Skills da OpenAI.

BAo combinar o padrão aberto com sua API Responses proprietária, a empresa fornece um substrato pronto para uso de alto desempenho.

Não é apenas ler a habilidade; ele está hospedando-o dentro de um shell Debian 12 gerenciado, lidando com as políticas de rede e aplicando compactação no lado do servidor para garantir que o agente não se perca durante uma sessão de cinco milhões de tokens. Este é o "alto desempenho" escolha para engenheiros que precisam implantar trabalhadores autônomos e de longa duração, sem a sobrecarga de construir um ambiente de execução personalizado.

A Antrópica, por sua vez, concentrou-se na "mercado especializado." Sua força reside em um diretório maduro de manuais de parceiros pré-embalados de empresas como Atlassian, Figma e Stripe.

Implicações para os tomadores de decisões técnicas empresariais

Para engenheiros focados em "implantação rápida e ajuste fino," a combinação de compactação e habilidades do lado do servidor proporciona um enorme aumento de produtividade

Em vez de criar um gerenciamento de estado personalizado para cada execução de agente, os engenheiros podem aproveitar a compactação integrada para lidar com tarefas de várias horas.

As habilidades permitem "IP empacotado," onde o ajuste fino específico ou o conhecimento processual especializado podem ser modularizados e reutilizados em diferentes projetos internos.

Para aqueles encarregados de mover a IA de um "caixa de bate-papo" em um fluxo de trabalho de nível de produção – o anúncio da OpenAI marca o fim do "infraestrutura sob medida" era.

Historicamente, orquestrar um agente exigia uma estrutura manual significativa: os desenvolvedores tinham que criar uma lógica personalizada de gerenciamento de estado para lidar com longas conversas e sandboxes seguras e efêmeras para executar código.

O desafio não é mais "Como posso dar um terminal a este agente?" mas "Quais habilidades são autorizadas para quais usuários?" e "Como auditamos os artefatos produzidos no sistema de arquivos hospedado?" A OpenAI forneceu o motor e o chassi; o trabalho do orquestrador agora é definir as regras de trânsito.

Para gerentes de operações de segurança (SecOps), fornecer um shell e acesso à rede a um modelo de IA é uma evolução de alto risco. O uso de segredos de domínio e listas de permissões de organização pela OpenAI fornece uma estratégia de defesa profunda, garantindo que os agentes possam chamar APIs sem expor credenciais brutas ao contexto do modelo.

Mas à medida que os agentes se tornam mais fáceis de implantar via "Habilidades," SecOps deve estar vigilante sobre "habilidades maliciosas" que poderia introduzir vulnerabilidades de injeção imediata ou caminhos de exfiltração de dados não autorizados.

Como as empresas devem decidir?

OpenAI não está mais apenas vendendo um "cérebro" (o modelo); está vendendo o "escritório" (o recipiente), o "memória" (compactação) e "manual de treinamento" (habilidades). Para os líderes empresariais, a escolha está se tornando clara:

Escolha a API de respostas da OpenAI se seus agentes exigirem execução pesada e com estado. Se você precisa de um contêiner de nuvem gerenciado que possa funcionar por horas e lidar com mais de 5 milhões de tokens sem degradação do contexto, a pilha integrada da OpenAI é a solução "SO de alto desempenho" para o padrão agentskills.io.

Escolha Antrópico se sua estratégia depende da conectividade imediata com parceiros. Se o seu fluxo de trabalho se concentra em integrações existentes e pré-embaladas de um amplo diretório de fornecedores terceirizados, o ecossistema maduro da Anthropic oferece uma experiência mais "plug-and-play" experiência para o mesmo padrão aberto.

Em última análise, esta convergência sinaliza que a IA saiu do "jardim murado" era. Ao padronizar o agentskills.io, a indústria está se transformando "espaguete imediato" em uma arquitetura compartilhada, versionada e verdadeiramente portátil para o futuro do trabalho digital.

Atualização em 10 de fevereiro, 18h52 horário do leste dos EUA: desde então, este artigo foi atualizado para corrigir erros em uma versão anterior em relação à portabilidade das habilidades da OpenAI em comparação com as da Anthropic. Lamentamos os erros.



Fonte ==> Cyberseo

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *