
OpenAI Agents SDK 0.14: Agentes Sandbox e Ferramentas de Sistema de Arquivos
OpenAI Agents SDK 0.14 Análise Profunda — Agentes Sandbox, Harness Nativo do Modelo, Subagentes e Ferramentas de Sistema de Arquivos Estilo Codex Redefinindo o Padrão de Infraestrutura de Agentes de 2026
Em 15 de abril de 2026, a OpenAI lançou Agents SDK 0.14. É uma versão menor no papel, mas muda a forma padrão dos tempos de execução de agentes. O lançamento se baseia em três pilares: (1) um Harness Nativo do Modelo onde o modelo controla diretamente arquivos, shells e patches; (2) Agentes Sandbox nativos que executam código gerado pelo modelo em uma camada de computação isolada; e (3) o padrão Subagente que permite que um pai execute muitos filhos em paralelo. Empilhados acima estão os primitivos de sistema de arquivos estilo Codex (apply_patch, shell), o primitivo Skills para divulgação progressiva de contexto, e AGENTS.md como uma persona de agente fixada no repositório. Sete adaptadores de sandbox externos são lançados na estreia — Blaxel, Cloudflare, Daytona, E2B, Modal, Runloop e Vercel — enquanto localmente você pode executar um loop rápido sem Docker com UnixLocalSandboxClient. O Protocolo de Contexto do Modelo (MCP) não é mais uma integração opcional; agora é uma ferramenta embutida de primeira classe. E o trabalho de longo prazo é finalmente durável: o SDK persiste o estado via checkpoint, snapshot e reidratação, então um contêiner morrendo ou expirado não é mais um matador de sessão. Este artigo mapeia a área de superfície 0.14 em seis eixos, depois compartilha a lista de verificação de migração de 4 semanas que a ManoIT validou ao mover automações internas de RAG e DevSecOps para o novo tempo de execução.
1. Por que 0.14 é o Ponto de Inflexão — De "Pacote de Prompt" para "Tempo de Execução"
O Agents SDK original da primavera de 2025 era essencialmente um loop de chamada de função envolto em transferências e guardrails. Você declarava um Agent, anexava tools, e deixava o modelo escolher funções. Duas coisas falharam em produção. Primeiro, quando o modelo produzia código, não havia um lugar seguro para realmente executá-lo. Segundo, qualquer coisa que durasse mais de uma hora estava exposta a reinicializações de contêiner e timeouts de sessão. 0.14 puxa ambas as correções para dentro do SDK. Não é mais um pacote "prompt + tools" — é a superfície de infraestrutura para executar agentes.
A tabela abaixo colapsa o delta da superfície operacional 0.13.x → 0.14.0 em uma única página.
| Eixo | 0.13.x e anteriores | 0.14.0 (2026-04-15) | Sinal operacional |
|---|---|---|---|
| Modelo de execução | Loop de chamada de função (Agente + ferramentas) | Harness Nativo do Modelo (memória + sistema de arquivos + shell) | Modelo controla diretamente a superfície do OS |
| Execução de código | Contêineres externos executados por operador | Agentes Sandbox Nativos (novo na v0.14.0) | SDK padroniza a camada de computação |
| Credenciais | Co-localizadas com o ambiente do modelo | Separação de controle do harness ↔ computação | Bloqueia movimento lateral de injeção |
| Ferramentas de sistema de arquivos | Funções personalizadas por projeto | apply_patch + shell + AGENTS.md (estilo Codex) | Edições em nível de patch, shell unificado |
| Tarefas de longo prazo | Reiniciar do zero na expiração | Checkpoint, snapshot, reidratação | Retomar do último ponto |
| Paralelismo | Um agente primário serial | Subagentes roteados através de sandboxes | Execução concorrente por contêiner |
| Sandboxes externos | Nenhum (integração DIY) | Blaxel, Cloudflare, Daytona, E2B, Modal, Runloop, Vercel | Abstração de Sandbox BYO |
| MCP | Dependência opcional | Ferramentas embutidas de primeira classe | Gráfico de ferramentas totalmente externalizado |
| Loop local | Docker + executor externo necessário | UnixLocalSandboxClient (sem Docker) | Desenvolvimento local mais rápido |
| Pacote | pip install openai-agents |
extras: [docker], [voice], [redis]
|
Superfície de instalação modular |
| Idiomas | Python + TypeScript | Novas peças 0.14: Python primeiro, TS depois | Python lidera sandbox/harness |
As duas linhas que carregam o maior peso operacional são "Credenciais" e "Sandboxes externos." À medida que mais agentes executam por mais de uma hora, a forma antiga — o código gerado pelo modelo compartilhando um processo com suas chaves de API — deixa de ser aceitável. 0.14 rompe esse vínculo no nível do SDK. O harness de controle (plano de controle) mantém as credenciais; o código gerado pelo modelo só é executado em um sandbox separado (plano de computação). Mesmo que a injeção de prompt tenha sucesso, o movimento lateral para o resto da rede corporativa é cortado.
2. A Arquitetura do Tempo de Execução 0.14 — Seis Eixos
A arquitetura do tempo de execução 0.14 se decompõe claramente em seis eixos. Trocar adaptadores externos não muda o que os eixos significam.
| Eixo | Proprietário | Manifestação | Limite |
|---|---|---|---|
| ① Harness | OpenAI SDK | orquestrador de memória + sistema de arquivos | Contém credenciais |
| ② Modelo | OpenAI / 3ª parte | Tomador de decisão para chamadas de ferramentas | Sem acesso ao sandbox |
| ③ Cliente Sandbox | Adaptador SDK | UnixLocal / BYO / 7 externos | Delegado de execução de código |
| ④ Computação | Fornecedor de Sandbox | arquivos + shell + pacotes | Controles de rede/escopo |
| ⑤ Servidores MCP | Ferramentas externas padrão | ferramentas como serviço | OAuth/auth delegado |
| ⑥ Persistência | SDK + Fornecedor | checkpoint/snapshot | Garante retomar |
A separação mais contra-intuitiva é entre ② e ④. "O modelo decide; o código é executado em outro lugar." Através da 0.13, era comum que comandos de shell retornados pelo modelo fossem executados no mesmo processo. Na 0.14, o modelo não tem acesso direto à computação. O modelo pede ao harness para "aplicar este patch e executar este shell"; o harness roteia isso através do cliente sandbox para a camada de computação.
2.1 O Menor Loop Local — UnixLocalSandboxClient
A primeira coisa a encontrar quando 0.14 chega é UnixLocalSandboxClient. Ele leva um diretório temporário do host como o espaço de trabalho do sandbox, sem Docker necessário, o que o torna o modo de desenvolvimento local mais rápido.
# venv + install (Python 3.10+)
python -m venv .venv && source .venv/bin/activate
# Instalação base
pip install openai-agents
# Sandbox com suporte a Docker
pip install "openai-agents[docker]"
# Sessão de Voz / Redis
pip install "openai-agents[voice]"
pip install "openai-agents[redis]"
# examples/sandbox/unix_local_runner.py (forma idiomática 0.14.0)
from agents import Runner
from agents.sandbox import SandboxAgent, Manifest,<A nova versão do SDK traz melhorias significativas para a execução de agentes, permitindo que empresas brasileiras integrem soluções mais seguras e eficientes. Com a separação de credenciais e execução de código, as empresas podem mitigar riscos de segurança. A adoção dessas tecnologias pode acelerar a automação e a inovação nos processos de negócios.
Noticias relacionadas

Seu servidor MCP consome 55.000 tokens antes que seu agente diga uma palavra - Eu medi o custo real
O artigo analisa o alto consumo de tokens ao conectar servidores MCP, destacando a diferença de custos e a degradação da qualidade das respostas do agente após carregar muitas definições de ferramentas.

Parte 3: Conectando LDX hub diretamente via MCP
Neste artigo, um CEO não engenheiro documenta a conexão do Copilot Studio ao LDX hub usando MCP, evitando erros do Power Automate e reduzindo o tempo de configuração.

Construindo um Espaço de Trabalho Local com MCP e RAG Híbrido
O artigo discute a criação do DeepThink, um espaço de trabalho local para macOS que integra MCP e CLI, permitindo uma gestão eficiente de dados e interação com assistentes de IA como Claude.
Gostou do conteudo?
Receba toda semana as principais novidades sobre WebMCP.