Voltar as noticias
Modelos de Voz, Silício Personalizado e MCP para Empresas
MCP ProtocolAltaEN

Modelos de Voz, Silício Personalizado e MCP para Empresas

Dev.to - MCP·13 de maio de 2026

Esta semana, a OpenAI lançou três modelos de voz na API e uma variante de segurança do GPT-5.5. A Anthropic dobrou os limites de taxa do Claude Code usando o computação Colossus da SpaceX. A Thinking Machines lançou seu primeiro modelo, um sistema de 276 bilhões de parâmetros construído para interação em tempo real de 200 milissegundos. O Google lançou o Googlebooks e a Gemini Intelligence em seu Android Show. A Anthropic lançou o Claude para Legal com mais de 20 conectores MCP. O Cursor chegou ao Microsoft Teams. O tecido conectivo em todas essas histórias: ferramentas de codificação de IA, hardware de processamento e trabalho em padrões estão todos amadurecendo em paralelo, e cada amadurecimento está remodelando os outros.

Ferramentas de Codificação de IA: Cursor no Teams, Copilot CLI Itera Rápido

O Cursor expandiu sua área de atuação esta semana. A equipe do Cursor anunciou em 11 de maio que o Cursor agora está disponível no Microsoft Teams. Os usuários podem mencionar @cursor em qualquer canal do Teams para delegar tarefas a um agente ou puxar informações do Cursor diretamente para o Teams. A integração é importante porque move o Cursor para fora do editor e para o lugar onde as equipes de engenharia realmente coordenam o trabalho. Revisões de código assíncronas, triagem de tickets e acompanhamentos de PR agora acontecem na mesma superfície que a conversa sobre eles.

O GitHub Copilot CLI lançou cinco versões entre 5 e 11 de maio de 2026. A versão 1.0.41 (5 de maio) reduziu o tempo de inicialização renderizando a interface imediatamente enquanto a autenticação ocorria em segundo plano. A versão 1.0.42 (6 de maio) melhorou as mensagens de erro do servidor MCP. A versão 1.0.43 (6 de maio) adicionou roteamento de modelo do lado do servidor para o modo Auto. A versão 1.0.44 (8 de maio) corrigiu o piscar da conclusão de caminho e habilitou comandos de barra no meio da entrada. A versão 1.0.45 (11 de maio) adicionou um comando de barra /autopilot para alternar entre modos interativos e de piloto automático. Cinco lançamentos em sete dias refletem o ritmo que a equipe do Copilot CLI estabeleceu desde que a ferramenta foi lançada GA no início deste ano.

A Anthropic dobrou os limites de taxa do Claude Code da noite para o dia em 8 de maio de 2026. O aumento veio de uma parceria com a SpaceX que adicionou 300 megawatts de nova computação, o equivalente a mais de 220.000 GPUs Nvidia, em menos de um mês. A instalação Colossus One foi originalmente construída para as cargas de trabalho de treinamento do Grok da xAI. A Anthropic agora a utiliza para computação de pico em produtos voltados para desenvolvedores. Os usuários do Claude Code relataram ter atingido limites de saída durante horários de pico, e os limites dobrados resolvem esse ponto de pressão sem aumentar os preços.

A competição entre Claude Code, Cursor e GitHub Copilot continua a se intensificar. O Claude Code opera no Opus 4.7 com SWE-bench Verificado em 87,6%, SWE-bench Pro em 64,3% e CursorBench em 70%, de acordo com o comunicado da Anthropic de 16 de abril. O Cursor lançou o Composer 2 e agentes paralelos em abril. O GitHub pausou novas inscrições para o Copilot Pro e Pro+ antes da transição para cobrança baseada em uso em 1 de junho. Cada ferramenta agora tem uma posição distinta. O Claude Code é o agente independente de superfície para desenvolvedores seniores. O Cursor é o IDE do dia a dia. O Copilot é a extensão integrada ao GitHub para organizações com investimento existente no GitHub.

O Cursor 3.3 foi lançado em maio de 2026 com /multitask para gerar subagentes paralelos em vez de executá-los em sequência. O Scanner de Vulnerabilidades executa varreduras programadas para CVEs conhecidos e dependências desatualizadas. A análise de uso de contexto mostra aos engenheiros exatamente o que seu agente está consumindo. A estabilidade da conexão MCP foi corrigida na mesma versão. O Cursor 3, que foi lançado em abril de 2026, já mudou a arquitetura ao colocar todos os agentes locais e em nuvem em uma única barra lateral. Agentes iniciados a partir de dispositivos móveis, Slack, GitHub e Linear aparecem todos em uma única visão de espaço de trabalho.

O Cursor também lançou sua versão beta de Revisão de Segurança em maio para planos Teams e Enterprise. Dois agentes sempre ativos ancoram a oferta. O Revisor de Segurança verifica cada PR em busca de vulnerabilidades, regressões de autenticação, riscos de privacidade, aprovações automáticas de ferramentas de agentes e ataques de injeção de prompt. Ele deixa comentários inline na localização exata da diferença com severidade e orientações de remediação. O Scanner de Vulnerabilidades executa varreduras programadas para vulnerabilidades conhecidas, dependências desatualizadas e problemas de configuração com notificações opcionais do Slack. O Cursor introduziu telas na Janela de Agentes durante o mesmo período. As telas permitem que os agentes construam interfaces visuais interativas para revisões de PR, análises de avaliação e painéis de dados em vez de paredes de texto. Elas usam componentes baseados em React e vivem ao lado do terminal, navegador e controle de versão como artefatos duráveis.

O Bugbot do Cursor está mudando de $40 por assento por mês para cobrança baseada em uso em 8 de junho de 2026. As equipes serão cobradas com base no gasto sob demanda. Indivíduos serão cobrados com base no uso incluído. O custo médio de execução do Bugbot é de $1,00 a $1,50 dependendo do tamanho e complexidade do PR. A mudança de preços reflete a mudança mais ampla da indústria em direção à cobrança por ação para ferramentas de codificação de IA, que é a mesma direção que o GitHub Copilot está seguindo com sua transição em 1 de junho.

A mudança de cobrança do GitHub é a história maior para muitas equipes. O multiplicador de solicitação premium do Opus no Copilot saltou de 15x para 27x na mesma janela de transição. As equipes que executam cargas de trabalho pesadas no Opus no Copilot pagam consideravelmente mais do que os assinantes do plano Claude Max que usam o mesmo modelo através do canal direto da Anthropic. A diferença de preços é a razão pela qual um número crescente de equipes de engenharia está avaliando se deve usar o Claude Code como superfície primária e manter o Copilot para fluxos de trabalho nativos do GitHub.

O Claude Code em si deixou de ser um CLI em 2026. Ele opera no shell, como extensões do VS Code e JetBrains, como uma Ação do GitHub que abre PRs, e dentro do claude.ai na web e no celular. Subagentes, habilidades, ganchos e modo de plano transformam-no em uma configuração por repositório em vez de uma ferramenta por sessão. O agente opera em qualquer lugar onde o engenheiro trabalha. Essa postura independente de superfície é parte do porquê o acordo de computação da SpaceX foi importante. As restrições de capacidade no Claude Code aparecem em cinco superfícies ao mesmo tempo, e o aumento do limite de taxa ajudou todas as cinco.

Uma nota de segurança que vale a pena destacar. O Cursor corrigiu uma vulnerabilidade na versão 2.5 que permitia que um repositório Git malicioso acionasse a execução de código arbitrário através do agente. O patch está em vigor. Não houve relatos públicos de abuso em campo. As equipes que executam versões mais antigas do Cursor precisam atualizar. A questão mais ampla que o bug levantou é como as equipes de engenharia lidam com a confiança de repositórios quando agentes de IA têm acesso ao shell. A combinação da capacidade do agente e entradas não verificadas é uma categoria de risco que não existia um ano atrás, e a indústria de ferramentas de segurança está começando a responder.

Processamento de IA: Tesla AI5 Tape-Out, Roster de Clientes do Google TPU Expande

A Tesla finalizou seu chip AI5 em 15 de abril de 2026, com detalhes continuando a surgir esta semana. O chip é de dupla fonte da TSMC Arizona e Samsung Texas. De acordo com as especificações declaradas da Tesla, o AI5 oferece aproximadamente 8x a computação e 5x a largura de banda do hardware atual AI4. Um único chip AI5 se aproxima de um NVIDIA H100 para as cargas de trabalho específicas de inferência da Tesla. Uma configuração dual AI5 se aproxima de um NVIDIA Blackwell a uma fração do custo e do poder. A Tesla afirma que o AI5 usa aproximadamente um terço da potência

Contexto Triplo Up

As inovações em modelos de IA e protocolos MCP estão transformando a forma como as empresas brasileiras gerenciam suas equipes de desenvolvimento. A integração de ferramentas como Cursor e Claude Code pode otimizar a produtividade e a segurança no ambiente de trabalho. A adoção dessas tecnologias é crucial para manter a competitividade no mercado.

Noticias relacionadas

Gostou do conteudo?

Receba toda semana as principais novidades sobre WebMCP.