Beta
Home/Comparar/Claude Opus 4.6 vs GPT-5.3-Codex

Claude Opus 4.6 vs GPT-5.3-Codex

Lado a lado. Cada métrica. Cada benchmark.

Anthropic
57.5
puntuación promedio
2/5
benchmarks
OpenAI
52.2
puntuación promedio
2/5
benchmarks
TipoClaude Opus 4.6GPT-5.3-Codex
ProviderAnthropic logoAnthropicOpenAI logoOpenAI
puntuación promedio57.552.2
Precio de entrada$5.00$1.75
Precio de salida$25.00$14.00
Ventana de contexto1.0M tokens (~500 books)400K tokens (~200 books)
Publicado el2026-02-042026-02-24
Código abiertoProprietaryProprietary

5 benchmarks · Claude Opus 4.6: 2, GPT-5.3-Codex: 2

BenchmarkCategoríaClaude Opus 4.6GPT-5.3-Codex
APEX-Agentsagentic31.731.7
PostTrainBenchknowledge23.217.8
SWE-Bench verifiedcoding78.774.8
Terminal Benchcoding74.777.3
WeirdMLcoding77.979.3