DeepSeek
🇨🇳ChinaSite
17
Total de modelos
rastreados no BenchGecko
11
Código aberto
65% dos modelos
$0.15
Modelo mais barato
por 1M de tokens de entrada
42.5
Benchmark médio
em 10 modelos avaliados
Categorias de modelos
LLM14Code3
Faixa de preço — $/1M de tokens de entrada
$0.15
$0.20
$0.21
$0.26
$0.27
$0.29
$0.32
$0.40
$0.45
$0.70
$0.70
Baixo: $0.15Mediana: $0.29Alto: $0.70
Proporção de código aberto
65%
11 código aberto6 proprietário
Todos os modelos DeepSeek17 total
| #▲ | Model | Avg | ARC AI2? | BBH? | GSM8K? | HellaSwag? | LAMBADA? | MMLU? | GPQA diamond? | MATH level 5? | otis mock ? | WeirdML? | Winogrande? | SimpleBench? | aider poly? | lech mazur? | GSO-Bench? | fiction li? | swe bench ? | terminal b? | frontierma? | simpleqa v? | frontierma? | chess puzz? | APEX-Agents? | OSWorld? | ARC-AGI-2? | HLE? | TriviaQA? | ScienceQA? | PIQA? | OpenBookQA? | CadEval? | Balrog? | GeoBench? | Cybench? | ANLI? | the agent ? | VideoMME? | ARC-AGI? | deepresear? | VPCT? | $/1M in | Context | Released |
|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
| 1 | 76.5 | 89.6 | 71.7 | - | 82.8 | - | 71.2 | - | - | - | - | 72.6 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | 80.0 | - | 67.8 | - | - | - | - | - | - | - | - | - | - | - | - | - | Jan 242y ago | |
| 2 | 60.0 | - | - | - | - | - | - | - | - | - | 39.5 | - | - | 74.2 | - | - | 83.3 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | 42.9 | - | - | - | - | $0.27 | 164K | Sep 256mo ago | |
| 3 | 57.2 | 93.7 | 83.3 | - | 85.2 | - | 82.9 | 42.0 | 64.8 | 15.8 | - | 70.4 | 2.7 | 48.4 | - | - | - | - | - | 1.7 | - | - | - | - | - | - | - | 82.9 | - | 69.4 | - | - | - | - | - | - | - | - | - | - | - | $0.32 | 164K | Dec 241y ago | |
| 4 | 51.1 | - | - | - | - | - | - | - | - | - | 38.4 | - | 28.0 | - | 85.2 | - | 52.8 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | $0.15 | 33K | Aug 257mo ago | |
| 5 | 48.5 | - | - | - | - | - | - | 68.4 | 96.6 | 66.4 | 41.6 | - | 29.0 | 71.4 | - | - | 75.0 | - | - | - | 27.4 | - | - | - | - | 1.1 | - | - | - | - | - | - | - | - | - | - | - | - | 21.2 | 35.1 | - | - | - | Jan 242y ago | |
| 6 | 47.6 | - | - | - | - | - | - | 62.3 | 93.0 | 53.3 | 36.5 | - | 17.1 | 56.9 | 83.0 | - | 69.4 | - | - | - | - | - | - | - | - | 1.3 | - | - | - | - | - | - | 34.9 | - | - | - | - | - | 15.8 | - | - | - | - | Jan 242y ago | |
| 7 | 38.7 | - | - | - | - | - | - | 77.9 | - | 87.8 | - | - | - | 74.2 | - | - | - | - | - | 22.1 | 27.5 | 2.1 | 14.0 | - | - | 4.0 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | $0.26 | 164K | Dec 253mo ago | |
| 8 | 25.4 | 22.9 | - | 35.4 | - | - | 19.2 | - | - | - | - | 24.0 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | Jan 242y ago | |
| 9 | 16.7 | 15.2 | - | 21.3 | - | - | 15.2 | - | - | - | - | 15.2 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | Jan 242y ago | |
| 10 | 3.2 | 0.5 | - | 4.4 | - | - | 1.1 | - | - | - | - | 6.6 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | Jan 242y ago |
90+ 80-89 70-79 60-69 <60Scores in % unless noted. Avg = unweighted mean across tested benchmarks.