
nanobot: Construa Agentes de IA em 4.000 Linhas que Você Pode Realmente Ler
Por Que Isso Importa
Há uma reclamação recorrente em fóruns de desenvolvedores sobre frameworks modernos de agentes de IA: você gasta mais tempo entendendo o framework do que construindo seu agente real. O gráfico de dependência do LangGraph, as mais de 430.000 linhas de código do OpenClaw, as abstrações em camadas do CrewAI — esses são poderosos, mas impõem uma curva de aprendizado que desacelera a experimentação.
O nanobot, lançado em 2 de fevereiro de 2026 pelo Data Intelligence Lab da Universidade de Hong Kong (HKUDS), aposta no oposto. Todo o loop central do agente — roteamento de mensagens, chamadas LLM, gerenciamento de memória, execução de ferramentas, agendamento cron — cabe em aproximadamente 4.000 linhas de Python. Você pode lê-lo em uma tarde. Você pode fazer um fork até o almoço.
Essa restrição não é uma limitação. É o design. O nanobot implementa cerca de 90% das capacidades centrais do OpenClaw com 99% menos código. Em abril de 2026, acumulou mais de 34.000 estrelas no GitHub, tornando-se um dos frameworks de agentes de código aberto que mais crescem no ano.
Este guia passa pelo que o nanobot realmente faz, como fazê-lo funcionar e onde ele se encaixa em comparação com alternativas mais pesadas como smolagents e OpenClaw.
O Que É o nanobot? Arquitetura Central
O nanobot é um agente de IA pessoal que você implanta como um processo de longa duração. Ele escuta em um ou mais canais de mensagens (Telegram, Discord, WhatsApp, Slack e outros), roteia mensagens recebidas para um LLM, executa chamadas de ferramentas via MCP ou habilidades personalizadas, e persiste a memória entre sessões.
A arquitetura é deliberadamente plana:
Mensagem recebida
↓
Adaptador de canal (Telegram / Discord / WhatsApp / ...)
↓
Barramento de mensagens
↓
Loop do agente
├── Chamada LLM (11+ provedores suportados)
├── Execução de ferramentas (MCP stdio / HTTP)
└── Leitura/escrita de memória (sessão + Dream)
↓
Despacho de resposta
Cada uma dessas camadas é um pequeno módulo autônomo. Não há motor de orquestração oculto, não há travessia de gráfico, não há DAG pré-construído. O loop do agente em si é o tipo de código que você pode percorrer em um depurador em dez minutos.
O projeto requer Python 3.11 ou superior e é licenciado sob MIT. A versão mais recente no momento da redação é v0.1.5.post2 (21 de abril de 2026), que adicionou suporte para Windows e Python 3.14, leitura de documentos do Office, streaming SSE para o endpoint da API compatível com OpenAI e melhorou a confiabilidade da sessão.
Começando: Instalação em Menos de 5 Minutos
Três caminhos de instalação estão disponíveis. O PyPI é recomendado para a maioria dos usuários:
pip install nanobot-ai
Ou com uv para instalações mais rápidas:
uv tool install nanobot-ai
Para rastrear o último branch de desenvolvimento:
git clone https://github.com/HKUDS/nanobot
cd nanobot
pip install -e .
Configuração YAML Mínima
O nanobot é configurado inteiramente via um arquivo YAML (ou JSON). Uma configuração mínima com Telegram e Claude:
llm:
provider: anthropic
model: claude-sonnet-4-6
api_key: SUA_CHAVE_ANTHROPIC
channels:
- type: telegram
token: SEU_TOKEN_BOT_TELEGRAM
Salve isso como ~/.nanobot/config.yaml e execute:
nanobot start
Essa é toda a configuração. O nanobot começará a escutar no Telegram e a responder com Claude Sonnet 4.6. Sem Docker, sem Kubernetes, sem configuração de ambiente além do arquivo YAML.
Provedores LLM Suportados
O nanobot vem com adaptadores para mais de 11 provedores prontos para uso:
- APIs em Nuvem: Anthropic (Claude), OpenAI (GPT), Google Gemini, DeepSeek, Moonshot, Groq, AiHubMix
- Agregadores: OpenRouter, DashScope, Zhipu (智谱)
- Auto-hospedados: vLLM (para modelos locais em sua própria GPU)
Trocar de provedores é uma linha na configuração. Você também pode configurar vários provedores e direcionar canais específicos para modelos específicos.
O Sistema de Memória Dream
Uma das escolhas de engenharia mais interessantes no nanobot é sua arquitetura de memória em dois níveis.
Histórico de sessão armazena as conversas brutas para cada thread de chat ativa em arquivos JSON sob sessions/. Este é o buffer de curto prazo — o que o agente sabe agora, nesta conversa.
Dream é a camada de consolidação de longo prazo. Ele funciona como um processo em segundo plano que periodicamente lê o histórico de sessões e extrai fatos duráveis, resumos e preferências do usuário em um arquivo MEMORY.md. Pense nisso como o agente dormindo sobre o que aprendeu e escrevendo notas antes de acordar.
O armazenamento subjacente para o Dream é versionado pelo git, o que significa que cada estado de memória é recuperável. Você pode reverter para qualquer ponto de verificação de memória anterior com um padrão git checkout. Esta é uma solução elegante para um problema real: agentes de longa duração acumulam memórias incorretas ou obsoletas, e ter um registro completo torna a depuração muito menos dolorosa.
O comportamento do Dream é configurado via DreamConfig em seu YAML:
memory:
dream:
enabled: true
interval_minutes: 60
max_facts: 200
Para agentes que executam fluxos de trabalho de vários dias — o tipo descrito em guias sobre padrões de execução durável Temporal — o sistema Dream preenche uma lacuna que a maioria dos frameworks leves ignora completamente.
Integração MCP: Ferramentas Externas Sem a Sobrecarga
O nanobot se conecta a servidores MCP (Model Context Protocol) via dois modos de transporte:
- stdio — para servidores MCP locais executando como processos filhos
- HTTP — para servidores remotos com cabeçalhos de autenticação personalizados opcionais
As ferramentas dos servidores MCP conectados são descobertas e registradas automaticamente na inicialização. O agente pode chamar qualquer ferramenta exposta da mesma forma que chamaria uma habilidade embutida, sem necessidade de encanamento adicional.
Exemplo de configuração YAML para um servidor MCP:
mcp_serversContexto Triplo UpO nanobot representa uma evolução significativa na criação de agentes de IA, permitindo que empresas brasileiras adotem soluções mais ágeis e eficientes. Com sua arquitetura simplificada, as empresas podem reduzir o tempo de desenvolvimento e melhorar a integração com ferramentas existentes. Isso pode acelerar a adoção de IA em processos de negócios e marketing digital.
Noticias relacionadas

Quatro modos de falha ao executar um LLM local em um loop agentivo multi-etapas
O artigo discute falhas comuns ao executar fluxos de trabalho agentivos com LLMs locais, destacando problemas de loops de chamadas de ferramentas e sucessos alucinatórios. Sugestões de mitigação são apresentadas para melhorar a confiabilidade.

Guia de Prompting do GPT-5.5
O guia de prompting do GPT-5.5 da OpenAI oferece dicas úteis para otimizar interações com o novo modelo, incluindo a importância de iniciar com prompts novos e ajustados.

Taxa de Clique do Google com Visões de IA Mostra Sinais de Recuperação: Estudo
A taxa de cliques orgânicos nas buscas do Google com Visões de IA está subindo, após um ano de queda. O que isso significa para as empresas?
Gostou do conteudo?
Receba toda semana as principais novidades sobre WebMCP.