MiniMax M2: Chinas Open-Source KI-Modell fordert OpenAI und Claude heraus

MiniMax hat mit seinem M2-Modell ein Open-Source-Sprachmodell veröffentlicht, das bei nur 8 Prozent der Kosten von Claude Sonnet eine vergleichbare Leistung erzielt und dabei doppelt so schnell arbeitet.

Das chinesische AI-Startup MiniMax positioniert sich mit der Veröffentlichung von MiniMax M2 als ernstzunehmender Konkurrent im globalen KI-Markt. Das neue Sprachmodell erreicht Platz 5 weltweit in den Artificial Analysis Benchmarks und übertrifft damit alle anderen verfügbaren Open-Source-Modelle. Die Besonderheit liegt in der Mixture-of-Experts-Architektur mit 230 Milliarden Gesamtparametern, von denen nur 10 Milliarden pro Token aktiviert werden.

Die API-Preisgestaltung von 0,30 Dollar pro Million Input-Token und 1,20 Dollar pro Million Output-Token unterbietet Claude Sonnet drastisch, das 3,00 Dollar bzw. 15,00 Dollar kostet. Gleichzeitig erreicht MiniMax M2 eine Inferenzgeschwindigkeit von etwa 1.500 Token pro Sekunde, während Claude Sonnet nur 900 Token pro Sekunde schafft. Diese Kombination aus niedrigen Kosten und hoher Performance macht das Modell besonders für Agenten-Workflows und Code-Generierung attraktiv.

Das Unternehmen wurde 2021 von ehemaligen SenseTime-Mitarbeitern gegründet und hat sich bereits durch erfolgreiche Consumer-Produkte wie die Talkie-App einen Namen gemacht, die 11 Millionen monatlich aktive Nutzer weltweit erreicht. NVIDIA-CEO Jensen Huang lobte MiniMax kürzlich als einen der weltweit führenden KI-Innovatoren und verbrachte zwei Stunden im direkten Gespräch mit Gründer Yan Junjie.

Technische Überlegenheit durch effiziente Architektur

Die technische Grundlage von MiniMax M2 basiert auf einer hochoptimierten Mixture-of-Experts-Implementierung, die deutlich sparsamer arbeitet als vergleichbare Modelle. Während DeepSeeks V3.2 beispielsweise 37 Milliarden aktive Parameter nutzt, kommt MiniMax M2 mit nur 10 Milliarden aus und erreicht dennoch vergleichbare oder bessere Leistung. Diese Effizienz ermöglicht responsive Agenten-Schleifen und höhere Parallelverarbeitung bei gleichem Rechenbudget.

Besonders in Code-spezifischen Benchmarks zeigt das Modell seine Stärken. Auf SWE-Bench Verified erreicht MiniMax M2 eine Punktzahl von 69,4 Prozent und übertrifft damit GLM-4.6 mit 68 Prozent. Bei Terminal-Bench, das die Fähigkeit zur Ausführung von Kommandozeilen-Aufgaben testet, erzielt das Modell 46,3 Prozent und übertrifft sowohl GPT-5 als auch Claude Sonnet 4.5. Diese Leistung macht MiniMax M2 besonders wertvoll für Softwareentwicklung und automatisierte Programmieraufgaben.

MiniMax-M2 Benchmark
MiniMax-M2 Benchmark

Strategische Auswirkungen auf den globalen KI-Markt

Die vollständige Open-Source-Verfügbarkeit unter MIT-Lizenz über Hugging Face democratisiert den Zugang zu Frontier-Klasse-KI-Fähigkeiten. Organisationen können das Modell lokal betreiben und damit Datenschutzanforderungen erfüllen, ohne auf externe APIs angewiesen zu sein. Diese Strategie kontrastiert stark mit der proprietären Ausrichtung von OpenAI und Anthropic und könnte deren Geschäftsmodelle fundamental herausfordern.

China investierte zwischen 2019 und 2023 etwa 132,7 Milliarden Dollar in KI-Entwicklung, was die gleichzeitige Entstehung mehrerer Frontier-Klasse-Modelle wie DeepSeek R1, Qwen 2.5-Max und GLM-4.5 erklärt. Diese effizienzorientierte Entwicklung entstand teilweise durch US-Exportbeschränkungen für fortschrittliche Halbleiter, die chinesische Entwickler dazu zwangen, Algorithmen und Architektur zu optimieren statt einfach Parameter und Trainingsdaten zu skalieren.

Die wichtigsten Fakten zum Update

  • MiniMax M2 erreicht Platz 5 weltweit in AI-Benchmarks als bestes Open-Source-Modell
  • Kostenvorteil von 92 Prozent gegenüber Claude Sonnet bei vergleichbarer Leistung
  • Doppelte Inferenzgeschwindigkeit mit 1.500 Token/Sekunde vs. 900 bei Claude
  • Mixture-of-Experts-Architektur mit 230B Gesamtparametern, nur 10B aktiv
  • Vollständig Open-Source unter MIT-Lizenz über Hugging Face verfügbar
  • Spezialisierung auf Agenten-Workflows und Code-Generierung
  • IPO-Pläne für 2025 als erstes chinesisches „AI Tiger“-Startup
  • Anerkennung durch NVIDIA-CEO Jensen Huang als weltweiter KI-Innovationsführer

Zusammenfassung

MiniMax hat mit M2 ein Open-Source-Sprachmodell entwickelt, das bei deutlich reduzierten Kosten und höherer Geschwindigkeit eine Performance auf Frontier-Niveau erreicht. Die Mixture-of-Experts-Architektur mit nur 10 Milliarden aktiven Parametern ermöglicht eine außergewöhnliche Effizienz für Agenten-Workflows und Code-Generierung. Die vollständige Open-Source-Verfügbarkeit demokratisiert den Zugang zu fortschrittlichen KI-Fähigkeiten und stellt etablierte proprietäre Modelle vor neue Herausforderungen. Chinas effizienzorientierter Entwicklungsansatz hat zur gleichzeitigen Entstehung mehrerer konkurrenzfähiger Modelle geführt, die internationale Anerkennung finden und die globale KI-Landschaft neu gestalten.

Quelle: MiniMax