ベータ
LIVE
Apr 7Claude Mythos Preview · Anthropic's most capable model arrives·Mar 31GPT-5.4 Nano launched on OpenAI·Mar 31GPT-5.4 Mini joins the OpenAI lineup·Mar 30Claude Opus 4.5 input price dropped · $5.00 per 1M tokens·Mar 30Mistral Small 4 available via Mistral AI·Mar 29Gemini 2.5 Pro scores 94.1% on MMLU·Mar 29Grok 4.20 Multi-Agent Beta enters agent rankings·Mar 28DeepSeek V3.2 output price dropped · $0.38 per 1M tokens·Mar 287 new MCP servers added in dev-tools category·Mar 27Claude Sonnet 4.6 released by Anthropic·Mar 27Claude Opus 4.6 released by Anthropic·Mar 26OTIS Mock AIME 2024-2025 benchmark added·Mar 26Claude Opus 4.1 pricing increased · $15/$75 per 1M tokens·Mar 25Grok 4.20 Beta launched by xAI·Mar 25Inception added as a tracked provider·Mar 24DeepSeek R1 0528 posted 87.2% on GPQA Diamond·Mar 243 new MCP servers in AI/ML category·Mar 23GPT-4o Audio Preview marked as deprecated·Mar 23Mistral Medium 3.1 input price cut to $0.40 per 1M tokens·Mar 22DeepSeek V3.2 Speciale released·Mar 22WeirdML benchmark now tracked on BenchGecko·Mar 20Nemotron 3 Super (120B) launched by NVIDIA·Mar 20Gemini 2.5 Flash Lite priced at $0.10/$0.40 per 1M tokens·Mar 18Mistral Large 3 2512 released by Mistral AI·Mar 18Grok Code Fast 1 added to agent rankings·Mar 16Claude Sonnet 4.5 scores 91.7% on MMLU·Mar 1612 new MCP servers added across 5 categories·Mar 14GPT-5.4 Pro launched · OpenAI's new flagship·Mar 14GPT-5.4 standard tier released by OpenAI·Mar 12Grok 3 Mini marked as deprecated by xAI·Mar 12Llama 3.3 Nemotron Super 49B pricing dropped·Mar 10Liquid added as a tracked provider·Mar 10MiniMax M2.7 released by MiniMax·Mar 8Grok 4 posted 89.4% on GPQA Diamond·Mar 8LAMBADA benchmark scores now tracked·Mar 5Gemini 2.5 Flash output price reduced to $2.50 per 1M tokens·Mar 5Mercury 2 launched by Inception·Mar 3Qwen3.5-Flash released by Alibaba Qwen·Mar 35 new MCP servers added · finance and auth categories·Apr 7Claude Mythos Preview · Anthropic's most capable model arrives·Mar 31GPT-5.4 Nano launched on OpenAI·Mar 31GPT-5.4 Mini joins the OpenAI lineup·Mar 30Claude Opus 4.5 input price dropped · $5.00 per 1M tokens·Mar 30Mistral Small 4 available via Mistral AI·Mar 29Gemini 2.5 Pro scores 94.1% on MMLU·Mar 29Grok 4.20 Multi-Agent Beta enters agent rankings·Mar 28DeepSeek V3.2 output price dropped · $0.38 per 1M tokens·Mar 287 new MCP servers added in dev-tools category·Mar 27Claude Sonnet 4.6 released by Anthropic·Mar 27Claude Opus 4.6 released by Anthropic·Mar 26OTIS Mock AIME 2024-2025 benchmark added·Mar 26Claude Opus 4.1 pricing increased · $15/$75 per 1M tokens·Mar 25Grok 4.20 Beta launched by xAI·Mar 25Inception added as a tracked provider·Mar 24DeepSeek R1 0528 posted 87.2% on GPQA Diamond·Mar 243 new MCP servers in AI/ML category·Mar 23GPT-4o Audio Preview marked as deprecated·Mar 23Mistral Medium 3.1 input price cut to $0.40 per 1M tokens·Mar 22DeepSeek V3.2 Speciale released·Mar 22WeirdML benchmark now tracked on BenchGecko·Mar 20Nemotron 3 Super (120B) launched by NVIDIA·Mar 20Gemini 2.5 Flash Lite priced at $0.10/$0.40 per 1M tokens·Mar 18Mistral Large 3 2512 released by Mistral AI·Mar 18Grok Code Fast 1 added to agent rankings·Mar 16Claude Sonnet 4.5 scores 91.7% on MMLU·Mar 1612 new MCP servers added across 5 categories·Mar 14GPT-5.4 Pro launched · OpenAI's new flagship·Mar 14GPT-5.4 standard tier released by OpenAI·Mar 12Grok 3 Mini marked as deprecated by xAI·Mar 12Llama 3.3 Nemotron Super 49B pricing dropped·Mar 10Liquid added as a tracked provider·Mar 10MiniMax M2.7 released by MiniMax·Mar 8Grok 4 posted 89.4% on GPQA Diamond·Mar 8LAMBADA benchmark scores now tracked·Mar 5Gemini 2.5 Flash output price reduced to $2.50 per 1M tokens·Mar 5Mercury 2 launched by Inception·Mar 3Qwen3.5-Flash released by Alibaba Qwen·Mar 35 new MCP servers added · finance and auth categories·
パルス20·健全
バブル278%·不安定
Claude Mythos Preview+4.1
Open Source16.2%

ランキング

Alibaba Qwen logo
Qwen3.5 397B A17B
#1
96.3
$0.39/M
DeepSeek logo
DeepSeek V3.2 Speciale
#2
95.2
$0.40/M
OpenAI logo
GPT-5.4 Pro
#3
93.0
$30.00/M
OpenAI logo
GPT-5.1-Codex-Max
#4
91.2
$1.25/M
Google DeepMind logo
Gemini 3.1 Pro Preview
#5
90.0
$2.00/M
stepfun logo
Step 3.5 Flash
#6
89.5
$0.10/M
OpenAI logo
GPT-5 Chat
#7
89.0
$1.25/M
Alibaba Qwen logo
Qwen3.6 Plus
#8
88.7
$0.33/M
z-ai logo
GLM 5.1
#9
87.0
$1.05/M
OpenAI logo
GPT-5.2-Codex
#10
85.4
$1.75/M
OpenAI logo
GPT-5.4
#11
83.4
$2.50/M
Anthropic logo
Claude Opus 4.6 (Fast)
#12
83.3
$30.00/M
OpenAI logo
GPT-5.1-Codex
#13
82.8
$1.25/M
バー幅 · 平均ベンチマークスコア · 色 · カテゴリ

話題アリーナ

タイルサイズ · 発言シェア · 色 · 7日間トレンド(緑上昇、赤下降)

The Pulse

パルス
healthy
7d · +3 pts
バブル指数 · 構成要素
Valuation Premium+2.1
Funding Acceleration+1.5
Concentration Risk0
Revenue Quality+1.4
Capex Gap+0.3
最大変動 · Valuation Premium 上昇 2.1 pts
AI バブル指数
健全過熱気味過熱バブル
更新日 Apr 22·方法論·無料API

クロスレイヤーインサイト

フルマトリクス
#ベンチマーク
1Anthropic logoClaude Mythos Preview100.01000K14
2Alibaba Qwen logoQwen3.5 397B A17B96.3$0.39262K11
3DeepSeek logoDeepSeek V3.2 Speciale95.2$0.40164K9
4OpenAI logoGPT-5.4 Pro93.0$30.001050K8
5OpenAI logoGPT-5.1-Codex-Max91.2$1.25400K8
6Google DeepMind logoGemini 3.1 Pro Preview90.0$2.001049K23
7stepfun logoStep 3.5 Flash89.5$0.10262K10
8OpenAI logoGPT-5 Chat89.0$1.25128K7
9Alibaba Qwen logoQwen3.6 Plus88.7$0.331000K11
10DeepSeek logoDeepSeek R1 Distill Qwen 14B88.311
11
HA
Qwen2.5 72B Instruct Abliterated
87.56
12z-ai logoGLM 5.187.0$1.05203K12
13OpenAI logoGPT-5.2-Codex85.4$1.75400K9
14Anthropic logoClaude Instant84.64
15DeepSeek logoDeepSeek-V2 (MoE-236B, May 2024)84.47
16OpenAI logoGPT-5.483.4$2.501050K16
17Anthropic logoClaude Opus 4.6 (Fast)83.3$30.001000K12
18OpenAI logoGPT-5.1-Codex82.8$1.25400K8
19xiaomi logoMiMo-V2-Flash81.7$0.09262K11
20Alibaba logoQwen2.5 32B Instruct81.37
検索 293 AI用語 · トランスフォーマーからアテンションプレミアムまで開く
方法論全文
BenchGeckoのデータはどのくらいの頻度で更新されますか?

モデルとベンチマークデータはプライマリーソースから毎日更新されます。料金はローリングベースですべてのプロバイダーAPIから取得されます。話題シグナルは週次で集計されます。パルスは毎日UTC 00:00に再計算されます。

パルスとは何ですか?

AIエコノミーの健全性を示す0-100の複合スコアです。逆バブル指数、ベンチマーク速度、料金圧縮、話題多様性、サプライチェーンテンションを1つの数値にブレンドしています。低いほど健全です。

ベンチマークスコアはどのように正規化されますか?

すべてのベンチマークは、スコアが付けられたモデル全体で最小最大正規化されます。ランキングは、単一テストの過大評価を避けるため、モデルあたり3つ以上のベンチマ��クにわたる正規化スコアの平均です。

料金データはどこから取得していますか?

プロバイダーAPIからの直接レスポンス · OpenRouter、OpenAI、Anthropic、Google、xAI、DeepSeek、Mistralなど。すべてのスナップショットはモデル詳細ページにソース帰属付きでキャッシュされます。

BenchGeckoのデータを引用できますか?

はい。すべてのページにAPA、MLA、BibTeX、Chicago、プレーンテキスト形式の「共有 & 引用」バーが付いています。無料APIプランでは帰属表示が必須で、その他すべての場所でも推奨されます。

ソース ·OpenRouterEpoch AISWE-benchMCP RegistryChatbot ArenaHuggingFaceLiveBenchArtificial AnalysisSEALAider
2時間前に更新 · 10以上の信頼できるソース · 編集コンテンツなし