DeepSeek-V2 (MoE-236B, May 2024) vs Llama 2-13B
Lado a lado. Cada métrica. Cada benchmark.
| Tipo | DeepSeek-V2 (MoE-236B, May 2024) | Llama 2-13B |
|---|---|---|
| Provider | ||
| puntuación promedio | 76.5 | 42.5 |
| Precio de entrada | - | - |
| Precio de salida | - | - |
| Ventana de contexto | - | - |
| Publicado el | 2024-01-01 | 2024-01-01 |
| Código abierto | Open Source | Open Source |
Puntuaciones de benchmark
7 benchmarks · DeepSeek-V2 (MoE-236B, May 2024): 7, Llama 2-13B: 0
| Benchmark | Categoría | DeepSeek-V2 (MoE-236B, May 2024) | Llama 2-13B |
|---|---|---|---|
| ARC AI2 | knowledge | 89.6 | 47.1 |
| BBH | reasoning | 71.7 | 44.3 |
| HellaSwag | knowledge | 82.8 | 74.3 |
| MMLU | knowledge | 71.2 | 40.8 |
| PIQA | knowledge | 67.8 | 61.6 |
| TriviaQA | knowledge | 80.0 | 79.6 |
| Winogrande | knowledge | 72.6 | 45.6 |