Claude Sonnet 4.6412msGPT-5o589msMistral 24B1.1sLlama 3.3 70B780msGemini 2.5634msDeepSeek-V3952msClaude Sonnet 4.6412msGPT-5o589msMistral 24B1.1sLlama 3.3 70B780msGemini 2.5634msDeepSeek-V3952msClaude Sonnet 4.6412msGPT-5o589msMistral 24B1.1sLlama 3.3 70B780msGemini 2.5634msDeepSeek-V3952ms
Live-Benchmarks · Täglich aktualisiert
KI, vermessen.
Unabhängige Latenz- und Qualitätsbewertungen für die führenden Sprachmodelle der Welt. Täglich aktualisiert, in vier Sprachen, mit dem vollständigen Prompt-Set veröffentlicht.
Die Modelle verfolgen, auf die es ankommt
Von Frontier-Tier Claude und GPT bis zu schnellen Open-Weight-Llama und Mistral — wir testen sie alle.
Anthropic
In Kürze
OpenAI
In Kürze
Mistral
In Kürze
Meta Llama
In Kürze
Google Gemini
In Kürze
DeepSeek
In Kürze
Cohere
In Kürze
xAI Grok
In Kürze
So testen wir
Echte Prompts, echte Latenz, echte Bewertungen. Drei Tiers halten die Kosten im Griff, ohne die Transparenz zu opfern.
Tier A
Volle Abdeckung
Geschwindigkeit + Intelligenz täglich in vier Sprachen.
Tier B
Nur Geschwindigkeit
Latenz und Verfügbarkeit, viermal täglich erhoben.
Tier C
Health-Ping
Up/Down-Prüfung alle fünfzehn Minuten.
Jedes Modell ausprobieren — direkt hier
Modell wählen, Prompt eingeben, Antwort live anschauen. Keine Anmeldung, keine Zahlung, kein Kontextwechsel.
Live-Tester öffnen →