
Verificando a Originalidade de Ideias com Agentes de IA
No mês passado, eu deletei em massa 6 horas de código.
Claude passou todo o tempo entusiasticamente me ajudando a construir algo que já tinha 12 concorrentes no GitHub. O principal tinha mais de 1.000 estrelas.
Aqui está o padrão que todo desenvolvedor enfrenta:
- O desenvolvedor tem uma ideia
- Pergunta ao ChatGPT: "Isso é original?"
- O ChatGPT diz: "Essa é uma ótima ideia! Aqui está como construí-la..."
- O desenvolvedor passa 2 semanas construindo
- Pesquisa no GitHub → encontra 847 repositórios fazendo a mesma coisa
- O principal tem 9.000 estrelas e uma equipe financiada por trás
O AI não mentiu. Ele apenas não pesquisou.
Por que "basta pesquisar no Google" não funciona
Você pode pensar: basta pesquisar antes de construir. Mas a pesquisa manual tem problemas:
- Você pesquisa no GitHub → encontra repositórios, mas perde pacotes npm e discussões no HN
- Você pesquisa uma consulta → perde sinônimos ("monitoramento LLM" vs "observabilidade AI" vs "telemetria de modelo")
- Você verifica contagens de estrelas → mas não verifica PyPI/npm por pacotes existentes
- Você passa 30 minutos → e ainda não tem certeza se perdeu algo
O verdadeiro problema: não há uma maneira padronizada de fazer uma varredura de mercado abrangente em todas as plataformas de desenvolvedores ao mesmo tempo.
E se seu agente de IA pesquisasse antes de codificar?
Eu construí idea-reality-mcp — um servidor MCP que pesquisa dados reais antes de você construir.
Um comando. Cinco fontes. Sinal quantificado.
"Ferramenta de revisão de código AI"
→ sinal_realidade: 90/100
→ 847 repositórios GitHub (top: reviewdog, 9.094 ⭐)
→ 254 menções no Hacker News
→ Veredicto: "Cobertura existente extremamente alta"
Ele pesquisa GitHub, Hacker News, npm, PyPI e Product Hunt em paralelo, e então retorna um sinal de realidade de 0-100 com base em dados reais da API — não em opiniões de LLM.
Nós pesquisamos. Eles adivinham.
| ChatGPT / Copilot | idea-reality-mcp | |
|---|---|---|
| Método | Gera opinião a partir de dados de treinamento | Pesquisa APIs ao vivo em tempo real |
| Fontes | Nenhuma (propenso a alucinações) | GitHub, HN, npm, PyPI, Product Hunt |
| Saída | "Ótima ideia!" (geralmente) | sinal_realidade: 73, 2.341 repositórios encontrados |
| Verificável | Não | Sim — cada número se liga a uma API real |
| Velocidade | Instantâneo | ~3 segundos (paralelo assíncrono) |
Como funciona (30 segundos)
# Instalar
uvx idea-reality-mcp
# Ou adicione à configuração do Claude Desktop / Cursor:
{
"mcpServers": {
"idea-reality": {
"comando": "uvx",
"args": ["idea-reality-mcp"]
}
}
}
Então pergunte ao seu agente de IA: "Verifique se alguém já construiu uma ferramenta CLI para monitoramento de propagação DNS"
O agente chama idea_check automaticamente e recebe de volta:
- sinal_realidade: pontuação de 0-100
- Principais projetos semelhantes com contagens de estrelas
- Discussão HN como evidência
- Sugestões de pivô se o espaço estiver lotado
Nenhuma chave de API necessária. Nenhuma conta. Nenhum armazenamento. É um protocolo, não um SaaS.
A pontuação é intencionalmente simples
Modo rápido: repositórios GitHub (60%) + estrelas (20%) + menções HN (20%)
Modo profundo: GitHub (25%) + estrelas (10%) + HN (15%) + npm (20%) + PyPI (15%) + PH (15%)
Cada peso é documentado. Cada número vem de uma chamada de API real que você pode verificar. Nenhuma caixa preta de ML.
Eu escolhi a explicabilidade em vez da sofisticação porque, quando você está decidindo se deve investir semanas em um projeto, você precisa confiar nos dados — não em um número mágico.
Faça sua IA verificar automaticamente
O padrão mais poderoso: adicione uma linha às instruções do seu agente de IA.
Para Claude Code (.claude/instructions.md):
Antes de iniciar qualquer novo projeto, execute idea_check para verificar se a ideia já não foi construída.
Para Cursor (.cursorrules):
Quando o usuário descreve uma nova ideia de projeto, sempre execute idea_check primeiro.
Agora seu agente irá pesquisar antes de codificar — toda vez, automaticamente.
O que ele encontrou que me surpreendeu
Alguns resultados de verificações reais na demonstração na web:
- "Servidor MCP para monitoramento de chamadas LLM" → Sinal 68. Acontece que existem várias ferramentas de observabilidade, mas nenhuma nativa do MCP. Vale a pena construir com diferenciação.
- "Revisão de código alimentada por AI" → Sinal 90. Extremamente lotado. O reviewdog sozinho tem 9K estrelas. Não faça.
- "Aplicativo de agendamento de acupuntura para pets" → Sinal 12. Quase nada existe. Nicho, mas o mercado também pode ser pequeno.
O sinal não diz se você deve construir — ele diz o que você está enfrentando, respaldado por dados.
Código aberto, zero armazenamento
- 120 testes, todos passando
- Licença MIT
- Zero armazenamento — nada é registrado ou salvo
- Zero contas — sem cadastro, sem chave de API necessária
- Funciona offline (extração de palavras-chave baseada em dicionário para modo MCP)
- Publicado no PyPI, Registro MCP, Smithery, e mais de 10 diretórios
A demonstração na web em mnemox.ai/check usa Claude Haiku para extração de palavras-chave mais inteligente, mas a ferramenta MCP em si não precisa de nenhuma dependência externa.
Experimente
- GitHub: mnemox-ai/idea-reality-mcp
- Demonstração na web: mnemox.ai/check
-
Instalar:
uvx idea-reality-mcp -
Registro MCP:
io.github.mnemox-ai/idea-reality-mcp
Se você usa Claude Code ou Cursor diariamente, adicione isso às instruções do seu agente. Leva 30 segundos.
O uso de agentes de IA para verificar a originalidade de ideias pode ajudar empresas brasileiras a economizar tempo e recursos. Com a crescente competição no mercado, ter uma ferramenta que analisa dados em tempo real pode ser um diferencial. Isso também pode impulsionar a inovação ao direcionar esforços para áreas menos saturadas.

