Beta

API

Acesso programático a dados de benchmark de modelos IA. Tier gratuito disponível.

Free
$0
100 requests/day
  • +Todos os endpoints públicos
  • +Respostas JSON
  • +Deve incluir link de atribuição
Requires "Data by BenchGecko" attribution link
Pro
$29/mo
10,000 requests/day
  • +Todos os endpoints públicos
  • +Exportação CSV + JSON
  • +Acesso a dados históricos
  • +Sem atribuição necessária
Enterprise
Custom
Unlimited
  • +Tudo do Pro
  • +Notificações via webhook
  • +Benchmarks personalizados
  • +Suporte prioritário

Atribuição do tier gratuito

O acesso gratuito à API requer um link visível "Data by BenchGecko" em qualquer página que exiba nossos dados.

<!-- Add this wherever you display BenchGecko data -->
<a href="https://benchgecko.ai">Data by BenchGecko</a>

Endpoints

GET/api/v1/models

Listar todos os modelos com pontuações e preços

Parâmetros
providerstringFilter by provider slug (e.g. "anthropic")
open_sourcebooleanFilter open source models only
sortstringSort by: avg_score, pricing_input, release_date, context_window
limitnumberResults per page (default 50, max 200)
Resposta
{
  "data": [
    {
      "slug": "claude-opus-4",
      "name": "Claude Opus 4",
      "provider": "Anthropic",
      "avg_score": 84.2,
      "scores": {
        "mmlu-pro": 85.7,
        "gpqa-diamond": 74.9,
        "humaneval-plus": 91.2
      },
      "pricing": { "input": 15.00, "output": 75.00 },
      "context_window": 200000,
      "release_date": "2025-08-01"
    }
  ],
  "meta": { "total": 14, "page": 1 }
}
GET/api/v1/models/:slug

Obter dados detalhados de um único modelo

Resposta
{
  "slug": "claude-opus-4",
  "name": "Claude Opus 4",
  "provider": { "name": "Anthropic", "slug": "anthropic" },
  "scores": [
    { "benchmark": "MMLU-Pro", "score": 85.7, "category": "knowledge" },
    { "benchmark": "GPQA Diamond", "score": 74.9, "category": "reasoning" }
  ],
  "pricing": { "input": 15.00, "output": 75.00 },
  "context_window": 200000,
  "max_output_tokens": 32000,
  "is_open_source": false,
  "release_date": "2025-08-01"
}
GET/api/v1/benchmarks

Listar todos os benchmarks com os modelos de maior pontuação

Parâmetros
categorystringFilter by category: coding, reasoning, math, knowledge
Resposta
{
  "data": [
    {
      "slug": "swe-bench-verified",
      "name": "SWE-bench Verified",
      "category": "coding",
      "top_models": [
        { "name": "Claude Opus 4", "score": 72.5 },
        { "name": "Claude Sonnet 4", "score": 70.3 }
      ]
    }
  ]
}
GET/api/v1/compare

Comparar dois ou mais modelos lado a lado

Parâmetros
modelsstringComma-separated model slugs (e.g. "claude-opus-4,gpt-4-1,o3")
Resposta
{
  "models": ["claude-opus-4", "gpt-4-1", "o3"],
  "benchmarks": [
    {
      "name": "MMLU-Pro",
      "scores": { "claude-opus-4": 85.7, "gpt-4-1": 83.1, "o3": 87.2 }
    }
  ]
}

Limites de taxa

Free: 100 requests/day, 10 requests/minute

Pro: 10,000 requests/day, 100 requests/minute

Enterprise: Unlimited

Rate limit headers: X-RateLimit-Limit, X-RateLimit-Remaining, X-RateLimit-Reset