Voltar as noticias
nanobot: Construa Agentes de IA em 4.000 Linhas que Você Pode Realmente Ler
Agentic SEOAltaEN

nanobot: Construa Agentes de IA em 4.000 Linhas que Você Pode Realmente Ler

Dev.to - MCP·25 de abril de 2026

Por Que Isso Importa

Há uma reclamação recorrente em fóruns de desenvolvedores sobre frameworks modernos de agentes de IA: você gasta mais tempo entendendo o framework do que construindo seu agente real. O gráfico de dependência do LangGraph, as mais de 430.000 linhas de código do OpenClaw, as abstrações em camadas do CrewAI — esses são poderosos, mas impõem uma curva de aprendizado que desacelera a experimentação.

O nanobot, lançado em 2 de fevereiro de 2026 pelo Data Intelligence Lab da Universidade de Hong Kong (HKUDS), aposta no oposto. Todo o loop central do agente — roteamento de mensagens, chamadas LLM, gerenciamento de memória, execução de ferramentas, agendamento cron — cabe em aproximadamente 4.000 linhas de Python. Você pode lê-lo em uma tarde. Você pode fazer um fork até o almoço.

Essa restrição não é uma limitação. É o design. O nanobot implementa cerca de 90% das capacidades centrais do OpenClaw com 99% menos código. Em abril de 2026, acumulou mais de 34.000 estrelas no GitHub, tornando-se um dos frameworks de agentes de código aberto que mais crescem no ano.

Este guia passa pelo que o nanobot realmente faz, como fazê-lo funcionar e onde ele se encaixa em comparação com alternativas mais pesadas como smolagents e OpenClaw.

O Que É o nanobot? Arquitetura Central

O nanobot é um agente de IA pessoal que você implanta como um processo de longa duração. Ele escuta em um ou mais canais de mensagens (Telegram, Discord, WhatsApp, Slack e outros), roteia mensagens recebidas para um LLM, executa chamadas de ferramentas via MCP ou habilidades personalizadas, e persiste a memória entre sessões.

A arquitetura é deliberadamente plana:

Mensagem recebida
        ↓
  Adaptador de canal (Telegram / Discord / WhatsApp / ...)
        ↓
    Barramento de mensagens
        ↓
   Loop do agente
   ├── Chamada LLM (11+ provedores suportados)
   ├── Execução de ferramentas (MCP stdio / HTTP)
   └── Leitura/escrita de memória (sessão + Dream)
        ↓
  Despacho de resposta

Cada uma dessas camadas é um pequeno módulo autônomo. Não há motor de orquestração oculto, não há travessia de gráfico, não há DAG pré-construído. O loop do agente em si é o tipo de código que você pode percorrer em um depurador em dez minutos.

O projeto requer Python 3.11 ou superior e é licenciado sob MIT. A versão mais recente no momento da redação é v0.1.5.post2 (21 de abril de 2026), que adicionou suporte para Windows e Python 3.14, leitura de documentos do Office, streaming SSE para o endpoint da API compatível com OpenAI e melhorou a confiabilidade da sessão.

Começando: Instalação em Menos de 5 Minutos

Três caminhos de instalação estão disponíveis. O PyPI é recomendado para a maioria dos usuários:

pip install nanobot-ai

Ou com uv para instalações mais rápidas:

uv tool install nanobot-ai

Para rastrear o último branch de desenvolvimento:

git clone https://github.com/HKUDS/nanobot
cd nanobot
pip install -e .

Configuração YAML Mínima

O nanobot é configurado inteiramente via um arquivo YAML (ou JSON). Uma configuração mínima com Telegram e Claude:

llm:
  provider: anthropic
  model: claude-sonnet-4-6
  api_key: SUA_CHAVE_ANTHROPIC

channels:
  - type: telegram
    token: SEU_TOKEN_BOT_TELEGRAM

Salve isso como ~/.nanobot/config.yaml e execute:

nanobot start

Essa é toda a configuração. O nanobot começará a escutar no Telegram e a responder com Claude Sonnet 4.6. Sem Docker, sem Kubernetes, sem configuração de ambiente além do arquivo YAML.

Provedores LLM Suportados

O nanobot vem com adaptadores para mais de 11 provedores prontos para uso:

  • APIs em Nuvem: Anthropic (Claude), OpenAI (GPT), Google Gemini, DeepSeek, Moonshot, Groq, AiHubMix
  • Agregadores: OpenRouter, DashScope, Zhipu (智谱)
  • Auto-hospedados: vLLM (para modelos locais em sua própria GPU)

Trocar de provedores é uma linha na configuração. Você também pode configurar vários provedores e direcionar canais específicos para modelos específicos.

O Sistema de Memória Dream

Uma das escolhas de engenharia mais interessantes no nanobot é sua arquitetura de memória em dois níveis.

Histórico de sessão armazena as conversas brutas para cada thread de chat ativa em arquivos JSON sob sessions/. Este é o buffer de curto prazo — o que o agente sabe agora, nesta conversa.

Dream é a camada de consolidação de longo prazo. Ele funciona como um processo em segundo plano que periodicamente lê o histórico de sessões e extrai fatos duráveis, resumos e preferências do usuário em um arquivo MEMORY.md. Pense nisso como o agente dormindo sobre o que aprendeu e escrevendo notas antes de acordar.

O armazenamento subjacente para o Dream é versionado pelo git, o que significa que cada estado de memória é recuperável. Você pode reverter para qualquer ponto de verificação de memória anterior com um padrão git checkout. Esta é uma solução elegante para um problema real: agentes de longa duração acumulam memórias incorretas ou obsoletas, e ter um registro completo torna a depuração muito menos dolorosa.

O comportamento do Dream é configurado via DreamConfig em seu YAML:

memory:
  dream:
    enabled: true
    interval_minutes: 60
    max_facts: 200

Para agentes que executam fluxos de trabalho de vários dias — o tipo descrito em guias sobre padrões de execução durável Temporal — o sistema Dream preenche uma lacuna que a maioria dos frameworks leves ignora completamente.

Integração MCP: Ferramentas Externas Sem a Sobrecarga

O nanobot se conecta a servidores MCP (Model Context Protocol) via dois modos de transporte:

  • stdio — para servidores MCP locais executando como processos filhos
  • HTTP — para servidores remotos com cabeçalhos de autenticação personalizados opcionais

As ferramentas dos servidores MCP conectados são descobertas e registradas automaticamente na inicialização. O agente pode chamar qualquer ferramenta exposta da mesma forma que chamaria uma habilidade embutida, sem necessidade de encanamento adicional.

Exemplo de configuração YAML para um servidor MCP:

mcp_servers
Contexto Triplo Up

O nanobot representa uma evolução significativa na criação de agentes de IA, permitindo que empresas brasileiras adotem soluções mais ágeis e eficientes. Com sua arquitetura simplificada, as empresas podem reduzir o tempo de desenvolvimento e melhorar a integração com ferramentas existentes. Isso pode acelerar a adoção de IA em processos de negócios e marketing digital.

Noticias relacionadas

Gostou do conteudo?

Receba toda semana as principais novidades sobre WebMCP.