/
Claude Opus 4.7 is Now on Overchat AI — Anthropic's Most Advanced AI Model
Last Updated:
Apr 17, 2026

Claude Opus 4.7 is Now on Overchat AI — Anthropic's Most Advanced AI Model

A Anthropic lançou o Claude Opus 4.7 em 16 de abril de 2026 e é uma atualização direta para Opus 4.6 que impulsiona a liderança do modelo em codificação e trabalho agente mais do que o esperado.

Entre as atualizações estão um novo alto nível de esforço, uma visão substancialmente melhor e ganhos mensuráveis em benchmarks de codificação de IA. O novo modelo já está disponível no Overchat AI, e você pode comece a conversar com Claude Opus 4.7.

TLDR

  • O Claude Opus 4.7 foi lançado em 16 de abril de 2026 como uma atualização direta para o Opus 4.6 e é o novo modelo principal da Anthropic, geralmente disponível.
  • O preço permanece inalterado em relação ao Opus 4.6, com 5 dólares por milhão de tokens de entrada e 25 dólares por milhão de tokens de saída, mas o modelo usa um novo tokenizador que mapeia o mesmo texto para até 35% mais tokens, resultando em custos reais mais altos em alguns casos.
  • O Opus 4.7 pontua 64,3% no SWE-Bench Pro, em comparação com 53,4% no Opus 4.6 e 57,7% no GPT-5.4.
  • A visão melhorou muito — o novo modelo processa imagens com mais de três vezes a resolução anterior, até ~3,75 MP.
  • O acompanhamento das instruções tornou-se visivelmente mais literal em comparação com o Opus 4.6, o que significa que o modelo seguirá as instruções com mais precisão em todo o trabalho geral.

O que é Claude Opus 4.7?

Lançado em 16 de abril de 2026, o Claude Opus 4.7 é o mais recente modelo emblemático da Anthropic, posicionado como um agente avançado de engenharia de software e planejamento de longo prazo. O Opus 4.6 foi amplamente considerado como um dos melhores modelos de codificação de IA, e o Opus 4.7 se baseia nessa capacidade.

Um dos benchmarks mais importantes para medir o desempenho da codificação é o SWE-Bench Pro, onde o Opus 4.7 alcançou uma pontuação de 64,3% — acima dos 53,4% obtidos pelo Opus 4.6. Para comparação, o GPT-5.4 obteve 57,7%. Esse benchmark mede a capacidade de um agente de IA resolver problemas de engenharia do mundo real, muitos dos quais são baseados em problemas desafiadores do GitHub.

Características do Opus 4.7

Embora a maioria dos recursos seja proveniente da geração anterior, incluindo a janela de contexto de 1M, há três áreas principais em que esse modelo é aprimorado em relação ao seu antecessor.

Instruções mais precisas a seguir

O Opus 4.7 interpreta as instruções de forma mais literal. Embora isso seja uma melhoria na capacidade, a Anthropic avisa explicitamente que as instruções ajustadas para o Opus 4.6 — que às vezes interpretavam as instruções de forma vaga ou ignoravam partes — agora podem produzir resultados inesperados.

Melhor visão

O Opus 4.7 pode processar imagens com até 2.576 pixels na borda longa, o que equivale a aproximadamente 3,75 megapixels — mais de três vezes o que os modelos Claude anteriores podiam suportar. Essa é uma alteração no nível do modelo, não um parâmetro da API, portanto, ela se aplica automaticamente. Na prática, o modelo pode entender as imagens com muito mais precisão, e a melhoria é significativa. No benchmark de acuidade visual do XBOW, usado para testes de penetração autônomos, o Opus 4.7 obteve uma pontuação de 98,5% em comparação com 54,5% do Opus 4.6.

Memória de longo prazo mais precisa

O Opus 4.7 é melhor para ler e escrever notas em trabalhos longos e com várias sessões, portanto, as tarefas de acompanhamento exigem menos contexto inicial.

Além das atualizações principais, há vários recursos que vale a pena conhecer — uma mistura de comportamentos de modelos e adições de plataforma que foram lançadas junto com o lançamento.

alto nível de esforço

Anteriormente, os desenvolvedores tinham baixo, médio, alto e máximo. O Opus 4.7 adiciona xhigh entre alto e máximo, oferecendo um controle mais preciso sobre a relação entre raciocínio e latência. A Anthropic recomenda começar com alto ou xhigh para tarefas de codificação.

Orçamentos de tarefas

Agora, os desenvolvedores podem limitar o gasto com tokens de Claude por tarefa, permitindo que o modelo priorize as execuções mais longas.

Modo automático para usuários máximos

Anteriormente limitado a equipes/empresas/API, o modo automático no Claude Code agora permite que Claude tome decisões de permissão por conta própria durante tarefas longas.

Comportamento de autoverificação

O Opus 4.7 projeta maneiras de verificar seus próprios resultados antes de apresentar um relatório, algo que muitos testadores iniciais notaram. Por exemplo, a equipe da Vercel testou o modelo antes do lançamento e relatou que ele “faz provas no código do sistema antes de começar a trabalhar”, o que é um novo comportamento. Na prática, isso significa menos resultados confiáveis, mas errados.

Opus 4.7 é mais opinativo

O Opus 4.7 agora atrasa as discussões em vez de simplesmente concordar com o usuário, como um bom colega de trabalho faria. Vale a pena notar se você está frustrado com as respostas bajuladoras da IA.

Pontos de referência do Claude Opus 4.7

Nota: As bandeiras antrópicas do SWE-Bench Verified, Pro e Multilingual contêm um subconjunto de problemas que mostram sinais de memorização — elas confirmaram que a margem do Opus 4.7 acima de 4,6 se mantém mesmo quando elas são excluídas.

Codificação:

SWE-bench Pro 64.3%
Rakuten-SWE-Bench 3× more production tasks resolved than Opus 4.6

Conhecimento do mundo real:

BigLaw Bench (Harvey, high effort) 90.9%
Databricks OfficeQA Pro 21% fewer errors than Opus 4.6

Visão:

XBOW Visual Acuity 98.5%
54.5% Max image resolution
~3.75 MP (2,576 px long edge)

Claude Opus 4.7 vs outros modelos de IA

Vamos ver como o Opus 4.7 se compara à concorrência — tanto os modelos da Anthropic quanto os principais rivais.

Claude Opus 4.7 vs Opus 4.6

Nem toda carga de trabalho teve ganhos dramáticos, mas as melhorias são mais significativas em tarefas difíceis, tornando o Opus 4.7 uma forte atualização em relação à 4.6.

Benchmark Opus 4.7 Opus 4.6 Improvement
SWE-bench Pro 64.3% 53.4% +10.9pp
CursorBench ~70% ~58% +12pp
XBOW Visual Acuity 98.5% 54.5% +44pp

Claude Opus 4.7 versus GPT-5.4

O GPT-5.4 é o modelo atual de primeira linha da OpenAI. O gráfico de comparação da Anthropic coloca o Opus 4.7 à frente do GPT-5.4 na maioria dos benchmarks, com o SWE-Bench Pro mostrando a margem mais clara.

Benchmark Opus 4.7 GPT-5.4 Winner
SWE-bench Pro 64.3% 57.7% Opus 4.7

Claude Opus 4.7 x Claude Mythos

Claude Mythos é o modelo interno mais eficiente da Anthropic e uma possível variante do Opus 5 que, segundo consta, é tão avançada que lançá-la publicamente representa um risco à segurança cibernética global — ela conseguiu encontrar vários bugs antigos em softwares como o Firefox que permitiam que scripts maliciosos escapassem do ambiente de execução e assumissem o controle total de um PC em apenas algumas horas. Isso foi feito em testes controlados, mas a Anthropic decidiu não lançar o modelo até garantir que é seguro fazê-lo.

Para ser claro, o Opus 4.7 é menos avançado que o Mythos. Por exemplo, no SWE-Bench Pro, o Mythos Preview pontua 77,8% contra 64,3% do Opus 4.7.

Como acessar o Claude Mythos? No momento, o Mythos está disponível apenas para um conjunto limitado de parceiros do Projeto Glasswing — um grupo de empresas com acesso antecipado para usar o modelo para encontrar e corrigir vulnerabilidades no software mais crítico da Internet antes que o modelo seja lançado publicamente.

Preços do Claude Opus 4.7

O preço por token permanece inalterado em relação ao Opus 4.6.

Token Type Price per 1M Tokens
Input (standard) $5.00
Input (cache read) $0.50
Output $25.00

Mas há um problema. O Opus 4.7 vem com um novo tokenizador que mapeia o mesmo texto para aproximadamente 1,0—1,35 vezes mais tokens do que o Opus 4.6, dependendo do tipo de conteúdo. Além disso, o Opus 4.7 pensa mais em níveis de esforço mais altos, especialmente em turnos posteriores em configurações de agente, o que significa mais tokens de saída.

Em outras palavras, o preço do adesivo é o mesmo, mas o custo real por solicitação no Opus 4.7 será maior. É melhor medir a diferença em tarefas reais para entender como o novo tokenizador afetará o custo de suas cargas de trabalho específicas.

Para compensar o custo potencialmente mais alto, o Opus oferece suporte ao cache imediato, que oferece até 90% de economia.

Veja como o Opus 4.7 se compara aos concorrentes em termos de preço:

Model Input / 1M Output / 1M
Claude Opus 4.7 $5.00 $25.00
GPT-5.4 ~$5.00 ~$15.00
Gemini 3.1 Pro $2.00 $12.00

O Opus 4.7 é o mais caro desses modelos principais. Como antes, se você quiser ignorar completamente a matemática da API, você pode converse com Claude Opus 4.7 no Overchat AI como parte de uma única assinatura que também inclui GPT-5.4, Gemini 3.1 Pro, Kimi K2.5 e muito mais.

Como migrar do Opus 4.6 para o Opus 4.7

If you're upgrading an existing workflow, there are three things worth planning for:

  • Re-tune your prompts. Because Opus 4.7 follows instructions more literally, prompts that worked on Opus 4.6 may produce unexpected results.
  • Measure token usage. Between the new tokenizer and increased output at high effort, the model will most likely cost more for the same tasks — run a cost comparison to see how this affects you.
  • Start at xhigh effort. Anthropic recommends this specifically for coding, and Claude Code already defaults to xhigh.

Bottom Line

Claude Opus 4.7 is a significant upgrade over Opus 4.6, particularly for AI coding. If you want to test Opus 4.7 on your own workflows today, head to Overchat AI and start chatting with Claude Opus 4.7.

Key Takeaways:

  • Opus 4.7 is a direct upgrade to Opus 4.6, released on April 16, 2026. It is Anthropic's new flagship generally available model.
  • The biggest gains are in coding and agentic work. On SWE-bench Pro, Opus 4.7 scores 64.3% vs. 53.4% for Opus 4.6 and 57.7% for GPT-5.4. CursorBench jumps from ~58% to ~70%.
  • Instruction following is more literal. Opus 4.7 follows prompts more exactly than Opus 4.6 — meaning fewer unexpected deviations and less unneeded creativity, but also meaning that prompts tuned for Opus 4.6 may not work as well with the new model.
  • Vision is dramatically better. Images are now processed at up to 2,576 pixels on the long edge — more than 3× the previous limit. In practice, visual capability has nearly doubled, as shown by XBOW's visual-acuity benchmark jumping from 54.5% to 98.5%.
  • A new xhigh effort level sits between high and max, giving finer control over the reasoning-vs-latency tradeoff.
  • The tokenizer changed. Despite identical per-token rates, the new tokenizer maps the same text to 1.0–1.35× more tokens, and the model thinks more at higher effort levels — which means that in practice Claude Opus 4.7 is more expensive to run than Claude Opus 4.6.
  • Claude Opus 4.7 is more reliable. Notion has reported that Opus 4.7 completes tasks 14% more reliably, and Hex noted a new behavior: the model pushes back more often and flags when data it needs is missing instead of fabricating plausible fallbacks.

Opus 4.7 is the top AI coding model on benchmarks that measure real-world task completion, such as SWE-bench Pro. That said, Gemini 3.1 Pro offers a larger context window (2M), and both Gemini 3.1 Pro and GPT-5.4 come in at lower API pricing.