Beta
Classificação/Claude 2.1
Anthropic

Claude 2.1

por Anthropic · Lançado em 2024-01-01

21.0
pontuação média
N/A
Preço de entrada
N/A
Preço de saída
N/A
Janela de contexto
text
Tipo

Tested on 4 benchmarks with 21.0% average. Top scores: MMLU (64.7%), GPQA diamond (10.6%), WeirdML (7.1%).

Pontuações de benchmark

BenchmarkCategoriaPontuaçãoBar
MMLUknowledge64.7
GPQA diamondknowledge10.6
WeirdMLcoding7.1
OTIS Mock AIME 2024-2025math1.9

Modelos similares