Das chinesische KI-Labor DeepSeek hat mit seinen neuen Sprachmodellen DeepSeek-R1-Zero und DeepSeek-R1 für Aufsehen gesorgt. Diese Modelle erreichen in wichtigen Benchmarks Leistungen, die mit OpenAIs fortschrittlichem o1-Modell vergleichbar sind – und das zu deutlich geringeren Kosten und mit einer freien Lizenz.
DeepSeek R1 nutzt einen als “simuliertes Denken” bezeichneten Ansatz, der besonders bei mathematischen und naturwissenschaftlichen Aufgaben hervorragende Ergebnisse liefert. In verschiedenen Tests, wie dem Mathematiktest Aime 2024 und dem MATH-500-Benchmark, zeigt das Modell beeindruckende Leistungen. DeepSeek, ein ehemals geheimnisumwittertes chinesisches KI-Labor, hat ein Open-Source-Modell veröffentlicht, das GPT-40, Anthropics Claude 3.5 Sonnet und Metas Llama in mehreren Kernaufgaben übertraf. Analysten waren verblüfft, als DeepSeek eine bescheidene Investition von 5,6 Millionen Dollar und nur zwei Monate Trainingszeit offenbarte. Diese Leistungen standen im Kontrast zu OpenAIs riesigem Budget und kolossaler privater Bewertung.
Bemerkenswert ist auch die Veröffentlichung unter der freien MIT-Lizenz, die eine breite Nutzung und Modifikation ermöglicht. Das Modell ist in verschiedenen Größen verfügbar, von 1,5 bis 671 Milliarden Parametern.
Im kommerziellen Bereich drängt DeepSeek indes mit Kampfpreisen auf den Markt: Während OpenAI für die o1-Version 60 US-Dollar für eine Million Ausgabe-Tokens veranschlagt, werden bei DeepSeek lediglich 2,19 US-Dollar fällig. Damit ist die chinesische KI rund 95 Prozent günstiger als die US-Konkurrenz. Telepolis
Trotz einiger Einschränkungen aufgrund chinesischer Vorschriften zeigt DeepSeek R1 das wachsende Potenzial chinesischer KI-Entwicklung. Experten sehen darin ein Zeichen dafür, dass sich chinesische Teams schnell an die Spitze der KI-Technologie heranarbeiten.
Interessiert an Expansion oder Verlagerung? Nach China oder in die USA? Reden Sie mit uns.