
Eu indexei 67.000 projetos de agentes de IA de código aberto. Veja o que realmente há dentro.
Há alguns meses, comecei um projeto paralelo chamado AgentSkillsHub — um diretório que indexa todos os projetos significativos de agentes de IA de código aberto no GitHub: servidores MCP, habilidades Claude, habilidades Codex, ferramentas de agentes, tudo.
Seis meses depois, o banco de dados tem 67.196 projetos, atualizado a cada 8 horas.
Eu esperava encontrar um ecossistema saudável com uma longa cauda. O que realmente encontrei foi tão desigual que tive que parar e escrever um livro de 12 capítulos sobre isso (grátis, CC BY-NC-SA, PDF).
Este post é uma versão de 1.500 palavras. Se algo disso te surpreender, os dados de origem são abertos e reproduzíveis.
TL;DR (5 descobertas)
- O coeficiente de Gini da distribuição de estrelas é 0,983 — mais desigual do que a App Store (0,95), npm (0,93) ou YouTube (0,87)
- 54% de todos os projetos têm 0 estrelas. Não "poucas estrelas." Zero.
- O top 1% dos projetos possui 83% de todas as estrelas em todo o ecossistema
- A criação mensal de novos projetos aumentou 45 vezes entre janeiro de 2025 e março de 2026
-
O melhor padrão de engenharia que encontrei não são mais estrelas ou melhor código — são arquivos
MISTAKES.md(apenas 2,8% dos principais projetos têm um)
Vou detalhar cada um abaixo, além de três coisas que meus próprios dados provaram que eu estava errado.
Descoberta 1: Um novo recorde mundial de desigualdade
O coeficiente de Gini mede a desigualdade de distribuição em uma escala de 0 a 1. 0 = igualdade perfeita (todos têm o mesmo), 1 = uma pessoa possui tudo.
Projetos de Agentes de IA (2026): 0.983
App Store (2024): 0.95
pacotes npm (2022): 0.93
vídeos do YouTube (2020): 0.87
riqueza dos EUA (2023): 0.40
riqueza da China (2023): 0.47
Verifiquei a matemática três vezes. O conjunto de dados de 67K projetos realmente tem um Gini de 0,983.
Para contextualizar: os 50% inferiores de todos os projetos de agentes de IA de código aberto possuem 0,4% das estrelas. O top 0,1% (cerca de 67 projetos) possui cerca da metade de todas as estrelas na plataforma.
Isso não é uma "long tail." Isso é uma agulha e um deserto.
Descoberta 2: 54% têm zero estrelas
Dos 67.196 projetos:
- 36.346 têm exatamente 0 estrelas (54,1%)
- 47.381 têm ≤ 5 estrelas (70,5%)
- Apenas 1.693 têm ≥ 100 estrelas (2,5%)
- Apenas 403 têm ≥ 1.000 estrelas (0,6%)
Os 36K projetos sem estrelas representam um comportamento humano real: alguém escreveu uma Skill ou servidor MCP, enviou para o GitHub e literalmente ninguém — nem mesmo eles mesmos em uma conta diferente — clicou no botão de estrela.
A maioria deles não é spam. São tentativas sinceras. Alguém aprendeu sobre Skills, escreveu uma em um fim de semana, enviou e nunca mais voltou.
Descoberta 3: 1% possui 83%
Top 1% dos projetos: 83,2% de todas as estrelas
Top 10%: 96,8% de todas as estrelas
Bottom 90%: 3,2% de todas as estrelas
Se você é um autor de agentes de código aberto e não está no top 10%, matematicamente você está competindo por 3% da atenção visível.
A diferença entre o #1.000 e o #10.000 em classificação de estrelas é mais acentuada do que entre o #100 e o #1.000.
Descoberta 4: A explosão de oferta de 2026
Projetos novos de agentes mensalmente, por ano:
| Mês | Contagem |
|---|---|
| Jan 2024 | ~50 |
| Dez 2024 | ~280 |
| Jun 2025 | ~620 |
| Dez 2025 | ~1.400 |
| Mar 2026 | ~27.720 |
Isso é um aumento de 45 vezes em relação à média mensal de 2024 para um mês em 2026.
O que mudou? Três coisas se acumularam:
- Anthropic publicou a Skill Spec (outubro de 2025), dando aos criadores um formato concreto
-
Claude Code lançou
~/.claude/skills/(fevereiro de 2026), tornando a instalação em um passo - Cursor + Codex CLI adicionou carregamento de Skills no mesmo trimestre
Quando o formato passou de "5 comandos e um arquivo de configuração" para "soltar uma pasta, pronto", a curva de oferta quebrou.
A curva de demanda não acompanhou. Daí a taxa de 54% de projetos sem estrelas.
Descoberta 5: Os 2,8% que escrevem MISTAKES.md
Dos 500 principais projetos (≥500 estrelas), verifiquei quais tinham arquivos como MISTAKES.md, LESSONS.md ou POSTMORTEM.md.
Apenas 14 fazem (2,8%). Desses, 8 são forks/templates. Autores reais que registram ativamente erros: 6.
A média de qualidade desses 6 projetos é 55,8 contra 47,2 para a média dos 500 principais. Um delta de +8,6 em uma escala de 100 pontos.
O tamanho da amostra é pequeno, mas o sinal é alto: os engenheiros que anotam seus erros entregam melhores Skills. Esta não é uma regra de design de Skills. É um traço de personalidade que vaza para o artefato.
Se eu tivesse que escolher um sinal para prever se uma Skill ainda estará viva em 6 meses, seria "o autor mantém um MISTAKES.md?" — superando a contagem de estrelas, a frequência de commits e a pontuação de qualidade combinadas.
Três coisas que eu estava errado
Esta é a parte que quase não escrevi.
Errado #1: "A pontuação de qualidade fará com que gemas ocultas apareçam"
Eu construí uma pontuação de qualidade de 6 dimensões (completude, clareza, especificidade, exemplos, estrutura do README, prontidão do agente). É de código aberto: quality_analyzer.py.
Eu assumi: se eu classificar por qualidade em vez de estrelas, as coisas subestimadas flutuarão.
Realidade: qualidade e estrelas correlacionam-se em r = 0,71. As gemas ocultas geralmente não estão ocultas — estão abaixo do nível de ruído. A pontuação de qualidade ajuda dentro dos níveis (separando B de A), mas não move páginas da classificação 5.000 para a 50.
Errado #2: "Categorias ajudarão os usuários a encontrar o que precisam"
Eu categorizei tudo em 7 grupos (mcp-server, claude-skill, codex-skill, agent-tool, etc.). 9,5% dos projetos acabaram em uncategorized — muito genérico para classificar.
Problema maior: os usuários não pesquisam por categoria. Eles pesquisam por caso de uso ("análise de PDF", "revisão de código", "integração com Slack"). A categoria é um artefato de como eu penso, não de como qualquer um usa o site.
Tive que construir 58 páginas de destino separadas /best/{scenario}/ para corrigir isso.
Errado #3: "Os distintivos de Criador Verificado recompensarão autores reais"
Eu desenhei um programa de Criador Verificado com critérios rigorosos. Eu até pré-preenchi a lista de membros fundadores com 4 nomes bem conhecidos do ecossistema.
Esqueci de perguntar a eles.
Um deles educadamente disse "Eu na verdade não me juntei." Eu removi toda a lista em 4 horas. A lição — nunca pré-anuncie o nome de outra pessoa sem consentimento, mesmo quando isso torna seu lançamento melhor — está no capítulo 10 do livro se você quiser o post-mortem completo.
O gráfico que explica tudo
Se você levar uma imagem, leve esta:
...
Empresas brasileiras podem se beneficiar ao entender a dinâmica do ecossistema de agentes de IA, identificando oportunidades em projetos menos visíveis. A análise de padrões de sucesso pode guiar o desenvolvimento de suas próprias soluções de IA.


