Beta
Home/Comparar/GLM 4.7 vs DeepSeek V3.2 Speciale

GLM 4.7 vs DeepSeek V3.2 Speciale

Lado a lado. Cada métrica. Cada benchmark.

z-ai
50.5
puntuación promedio
2/6
benchmarks
DeepSeek
78.2
puntuación promedio
4/6
benchmarks
TipoGLM 4.7DeepSeek V3.2 Speciale
Providerz-ai logoz-aiDeepSeek logoDeepSeek
puntuación promedio50.578.2
Precio de entrada$0.39$0.40
Precio de salida$1.75$1.20
Ventana de contexto203K tokens (~101 books)164K tokens (~82 books)
Publicado el2025-12-222025-12-01
Código abiertoOpen SourceOpen Source

6 benchmarks · GLM 4.7: 2, DeepSeek V3.2 Speciale: 4

BenchmarkCategoríaGLM 4.7DeepSeek V3.2 Speciale
OpenCompass — AIME2025math95.496.0
OpenCompass — GPQA-Diamondknowledge86.986.7
OpenCompass — HLEknowledge25.428.6
OpenCompass — IFEvallanguage90.291.7
OpenCompass — LiveCodeBenchV6coding83.880.9
OpenCompass — MMLU-Proknowledge84.085.5