Voltar as noticias
Eu indexei 67.000 projetos de agentes de IA de código aberto. Veja o que realmente há dentro.
Casos de UsoAltaEN

Eu indexei 67.000 projetos de agentes de IA de código aberto. Veja o que realmente há dentro.

Dev.to - MCP·29 de abril de 2026

Há alguns meses, comecei um projeto paralelo chamado AgentSkillsHub — um diretório que indexa todos os projetos significativos de agentes de IA de código aberto no GitHub: servidores MCP, habilidades Claude, habilidades Codex, ferramentas de agentes, tudo.

Seis meses depois, o banco de dados tem 67.196 projetos, atualizado a cada 8 horas.

Eu esperava encontrar um ecossistema saudável com uma longa cauda. O que realmente encontrei foi tão desigual que tive que parar e escrever um livro de 12 capítulos sobre isso (grátis, CC BY-NC-SA, PDF).

Este post é uma versão de 1.500 palavras. Se algo disso te surpreender, os dados de origem são abertos e reproduzíveis.

TL;DR (5 descobertas)

  1. O coeficiente de Gini da distribuição de estrelas é 0,983 — mais desigual do que a App Store (0,95), npm (0,93) ou YouTube (0,87)
  2. 54% de todos os projetos têm 0 estrelas. Não "poucas estrelas." Zero.
  3. O top 1% dos projetos possui 83% de todas as estrelas em todo o ecossistema
  4. A criação mensal de novos projetos aumentou 45 vezes entre janeiro de 2025 e março de 2026
  5. O melhor padrão de engenharia que encontrei não são mais estrelas ou melhor código — são arquivos MISTAKES.md (apenas 2,8% dos principais projetos têm um)

Vou detalhar cada um abaixo, além de três coisas que meus próprios dados provaram que eu estava errado.

Descoberta 1: Um novo recorde mundial de desigualdade

O coeficiente de Gini mede a desigualdade de distribuição em uma escala de 0 a 1. 0 = igualdade perfeita (todos têm o mesmo), 1 = uma pessoa possui tudo.

Projetos de Agentes de IA (2026):  0.983
App Store (2024):          0.95
pacotes npm (2022):       0.93
vídeos do YouTube (2020):     0.87
riqueza dos EUA (2023):          0.40
riqueza da China (2023):       0.47

Verifiquei a matemática três vezes. O conjunto de dados de 67K projetos realmente tem um Gini de 0,983.

Para contextualizar: os 50% inferiores de todos os projetos de agentes de IA de código aberto possuem 0,4% das estrelas. O top 0,1% (cerca de 67 projetos) possui cerca da metade de todas as estrelas na plataforma.

Isso não é uma "long tail." Isso é uma agulha e um deserto.

Descoberta 2: 54% têm zero estrelas

Dos 67.196 projetos:

  • 36.346 têm exatamente 0 estrelas (54,1%)
  • 47.381 têm ≤ 5 estrelas (70,5%)
  • Apenas 1.693 têm ≥ 100 estrelas (2,5%)
  • Apenas 403 têm ≥ 1.000 estrelas (0,6%)

Os 36K projetos sem estrelas representam um comportamento humano real: alguém escreveu uma Skill ou servidor MCP, enviou para o GitHub e literalmente ninguém — nem mesmo eles mesmos em uma conta diferente — clicou no botão de estrela.

A maioria deles não é spam. São tentativas sinceras. Alguém aprendeu sobre Skills, escreveu uma em um fim de semana, enviou e nunca mais voltou.

Descoberta 3: 1% possui 83%

Top 1% dos projetos:    83,2% de todas as estrelas
Top 10%:               96,8% de todas as estrelas
Bottom 90%:            3,2% de todas as estrelas

Se você é um autor de agentes de código aberto e não está no top 10%, matematicamente você está competindo por 3% da atenção visível.

A diferença entre o #1.000 e o #10.000 em classificação de estrelas é mais acentuada do que entre o #100 e o #1.000.

Descoberta 4: A explosão de oferta de 2026

Projetos novos de agentes mensalmente, por ano:

Mês Contagem
Jan 2024 ~50
Dez 2024 ~280
Jun 2025 ~620
Dez 2025 ~1.400
Mar 2026 ~27.720

Isso é um aumento de 45 vezes em relação à média mensal de 2024 para um mês em 2026.

O que mudou? Três coisas se acumularam:

  1. Anthropic publicou a Skill Spec (outubro de 2025), dando aos criadores um formato concreto
  2. Claude Code lançou ~/.claude/skills/ (fevereiro de 2026), tornando a instalação em um passo
  3. Cursor + Codex CLI adicionou carregamento de Skills no mesmo trimestre

Quando o formato passou de "5 comandos e um arquivo de configuração" para "soltar uma pasta, pronto", a curva de oferta quebrou.

A curva de demanda não acompanhou. Daí a taxa de 54% de projetos sem estrelas.

Descoberta 5: Os 2,8% que escrevem MISTAKES.md

Dos 500 principais projetos (≥500 estrelas), verifiquei quais tinham arquivos como MISTAKES.md, LESSONS.md ou POSTMORTEM.md.

Apenas 14 fazem (2,8%). Desses, 8 são forks/templates. Autores reais que registram ativamente erros: 6.

A média de qualidade desses 6 projetos é 55,8 contra 47,2 para a média dos 500 principais. Um delta de +8,6 em uma escala de 100 pontos.

O tamanho da amostra é pequeno, mas o sinal é alto: os engenheiros que anotam seus erros entregam melhores Skills. Esta não é uma regra de design de Skills. É um traço de personalidade que vaza para o artefato.

Se eu tivesse que escolher um sinal para prever se uma Skill ainda estará viva em 6 meses, seria "o autor mantém um MISTAKES.md?" — superando a contagem de estrelas, a frequência de commits e a pontuação de qualidade combinadas.

Três coisas que eu estava errado

Esta é a parte que quase não escrevi.

Errado #1: "A pontuação de qualidade fará com que gemas ocultas apareçam"

Eu construí uma pontuação de qualidade de 6 dimensões (completude, clareza, especificidade, exemplos, estrutura do README, prontidão do agente). É de código aberto: quality_analyzer.py.

Eu assumi: se eu classificar por qualidade em vez de estrelas, as coisas subestimadas flutuarão.

Realidade: qualidade e estrelas correlacionam-se em r = 0,71. As gemas ocultas geralmente não estão ocultas — estão abaixo do nível de ruído. A pontuação de qualidade ajuda dentro dos níveis (separando B de A), mas não move páginas da classificação 5.000 para a 50.

Errado #2: "Categorias ajudarão os usuários a encontrar o que precisam"

Eu categorizei tudo em 7 grupos (mcp-server, claude-skill, codex-skill, agent-tool, etc.). 9,5% dos projetos acabaram em uncategorized — muito genérico para classificar.

Problema maior: os usuários não pesquisam por categoria. Eles pesquisam por caso de uso ("análise de PDF", "revisão de código", "integração com Slack"). A categoria é um artefato de como eu penso, não de como qualquer um usa o site.

Tive que construir 58 páginas de destino separadas /best/{scenario}/ para corrigir isso.

Errado #3: "Os distintivos de Criador Verificado recompensarão autores reais"

Eu desenhei um programa de Criador Verificado com critérios rigorosos. Eu até pré-preenchi a lista de membros fundadores com 4 nomes bem conhecidos do ecossistema.

Esqueci de perguntar a eles.

Um deles educadamente disse "Eu na verdade não me juntei." Eu removi toda a lista em 4 horas. A lição — nunca pré-anuncie o nome de outra pessoa sem consentimento, mesmo quando isso torna seu lançamento melhor — está no capítulo 10 do livro se você quiser o post-mortem completo.

O gráfico que explica tudo

Se você levar uma imagem, leve esta:

...
Contexto Triplo Up

Empresas brasileiras podem se beneficiar ao entender a dinâmica do ecossistema de agentes de IA, identificando oportunidades em projetos menos visíveis. A análise de padrões de sucesso pode guiar o desenvolvimento de suas próprias soluções de IA.

Noticias relacionadas

Gostou do conteudo?

Receba toda semana as principais novidades sobre WebMCP.