Voltar as noticias
Kiro Esquece Tudo a Cada Sessão. Então Eu Construi uma Memória para Ele.
MCP ProtocolAltaEN

Kiro Esquece Tudo a Cada Sessão. Então Eu Construi uma Memória para Ele.

Dev.to - MCP·26 de abril de 2026

Originalmente postado em AWS Builder.

Eu trabalho com uma IA todos os dias. Ela é inteligente. Ela escreve um código decente. E toda manhã, ela esquece quem eu sou.

Eu abro kiro-cli chat, e os primeiros 10 minutos são o mesmo imposto que paguei ontem:

Sim, usamos pnpm. Não, não npm. Sim, Vitest. Não, não Jest. A entrada principal é src/cli.ts. Já decidimos usar Result<T, E> na fronteira do CLI. Você me disse isso na semana passada. Eu te disse isso na semana passada. Tivemos essa conversa exata.

Meu colega de equipe chama isso de imposto de redescoberta do projeto. A cada sessão, você o paga. Cada. Sessão.

Eu cansei de pagá-lo.

Por que as soluções óbvias não funcionaram

Eu tentei as coisas óbvias primeiro.

"Basta usar arquivos de direcionamento." Arquivos de direcionamento são ótimos para o que é este projeto. Eles são markdown estáticos que você mantém manualmente. Eles não capturam o que a IA descobriu durante uma sessão. O ponto principal de trabalhar com uma IA é que ela aprende coisas com você. Arquivos de direcionamento não conseguem capturar isso.

"Diga ao agente para chamar uma ferramenta remember() quando ele aprender algo." Eu tentei isso. Claude é inconsistente sobre quando chamá-la. GPT é inconsistente. Kiro é inconsistente. Cada modelo é inconsistente, porque a gestão de memória é uma sub-missão para qualquer tarefa que você esteja realmente fazendo. O agente esquece de lembrar. Tartarugas até o fundo.

"Use um servidor de gráfico de conhecimento MCP SQLite." Mesmo problema. Armazenamento mais sofisticado, mesmo modo de falha. O agente ainda precisa decidir quando armazenar.

"Espere Kiro lançar isso." Há uma proposta circulando para .kiro/tasks/*.md com leitura/escrita automática. Sem ETA. Eu tinha trabalho a fazer esta semana.

A percepção que realmente resolveu

Aqui está o que fez sentido para mim, e eu darei crédito onde é devido — veio de um documento de design de um colega, eu apenas o transformei em produto:

O agente deve ser um leitor de memória, não um escritor.

Escrever memória é um trabalho diferente de usar memória. Eles não devem compartilhar uma janela de contexto. O escritor pode ser lento, deliberado, até caro. O leitor precisa ser rápido, barato e rodar em cada início de sessão.

Então eu os separei:

┌──────────────┐     MCP/stdio     ┌────────────────────┐     filesystem      ┌────────────────────────┐
│   Kiro CLI   │ ◄───────────────► │ mcp-agent-memory   │ ◄─────────────────► │ agent-memory-daemon    │
│ (o leitor)   │                   │  (servidor MCP)    │   ~/.agent-memory/   │   (o escritor)         │
└──────────────┘                   └────────────────────┘                     └────────────────────────┘

Kiro lê. O servidor MCP dá a ele três ferramentas: memory_read, memory_append_session, memory_search. É isso. Nada sofisticado.

Um daemon em segundo plano escreve. Ele observa o diretório de sessões, lê resumos de sessões em um intervalo, os passa por um LLM para extrair fatos duráveis e atualiza arquivos markdown em ~/.agent-memory/memory/.

Eles nunca se comunicam diretamente. O sistema de arquivos é o contrato. ~/.agent-memory/ é tudo o que eles compartilham.

Kiro não gasta tokens na gestão de memória. O trabalho pesado acontece de forma assíncrona, fora do chat.

Como é agora

Segunda-feira:

$ kiro-cli chat
> Usamos pnpm. Nunca sugira npm. Vitest não Jest. A entrada principal é src/cli.ts.
  Eu prefiro tipos de return  explícitos.

[Kiro faz o trabalho por  20 minutos]

> Ótimo, chame memory_append_session com um resumo do que concordamos.

Terminal fecha. A vida continua.

Terça-feira:

$ kiro-cli chat
[Kiro chama automaticamente memory_read por minha regra de direcionamento]

> Vejo que usamos pnpm, Vitest (não Jest), src/cli.ts como a entrada principal, e
  você prefere tipos de return  explícitos. No que estamos trabalhando hoje?

Sem re-explicações. Sem resumo colado. A IA simplesmente lembra.

Entre as sessões, o daemon acordou, leu o arquivo da sessão de segunda-feira, extraiu os fatos duráveis, os deduplicou em relação ao que já sabia e atualizou ~/.agent-memory/memory/project-preferences.md. Eu não levantei um dedo.

A parte da qual mais me orgulho: custa quase nada

O daemon executa um LLM para fazer a extração. LLMs custam dinheiro. Eu não queria que essa ferramenta drenasse silenciosamente minha conta do Bedrock.

Então eu adicionei um backend Kiro. Em vez de chamar Bedrock ou OpenAI, o daemon chama kiro-cli usando seus créditos Kiro existentes. Junto com uma configuração de agente de consolidação enxuta (que vem com o pacote), cada passagem de extração custa cerca de 0.01 créditos Kiro. O agente padrão teria sido ~0.07. Essa economia de 7× é a diferença entre "legal de ter" e "esqueci que estava rodando".

Você ainda pode escolher Bedrock ou OpenAI se essa for sua pilha.

Experimente

npm install -g mcp-agent-memory
mcp-agent-memory --setup

O assistente o guiará na escolha de um backend, registro com Kiro (e Claude Desktop e Cursor se você quiser) e instalação do daemon como um LaunchAgent no macOS.

Adicione esta regra de direcionamento de uma linha em ~/.kiro/steering/memory.md:

No início de cada sessão, chame memory_read (sem argumentos) para carregar meu
índice de memória. Quando você aprender algo durável sobre mim, meus projetos ou
minhas preferências, chame memory_append_session com um resumo markdown conciso.

Reinicie kiro-cli. É isso.

Lendo a memória você mesmo

A memória não é uma caixa-preta. São apenas arquivos markdown em ~/.agent-memory/memory/:

$ ls ~/.agent-memory/memory/
MEMORY.md  cli-architecture.md  project-preferences.md  team-processes.md

$ cat ~/.agent-memory/memory/project-preferences.md
# Preferências do Projeto
- Gerenciador de pacotes: pnpm (nunca npm)
- Framework de teste: Vitest (não Jest)
- Entrada principal: src/cli.ts
- Tipos de retorno: explícitos, não inferidos
...

$ grep -r "Vitest" ~/.agent-memory/memory/
project-preferences.md:- Framework de teste: Vitest (não Jest)

cat funciona. grep funciona. git funciona. Se você não gosta do que foi armazenado, exclua o arquivo.

O que isso i

Contexto Triplo Up

A implementação de um sistema de memória para agentes de IA pode reduzir o tempo perdido em reexplicações, aumentando a eficiência nas interações. Empresas brasileiras podem se beneficiar ao integrar soluções que melhoram a retenção de informações, otimizando o uso de IA em seus processos.

Noticias relacionadas

Gostou do conteudo?

Receba toda semana as principais novidades sobre WebMCP.