DeepSeek ist zurück — Und sein neues V4-Modell könnte die KI-Aktien erneut aufwirbeln

TLDR

  • DeepSeek hat zwei neue Open-Source-KI-Modelle veröffentlicht: V4-Pro (1,6 Billionen Parameter) und V4-Flash (284 Milliarden Parameter)
  • Beide Modelle unterstützen ein Kontextfenster von 1 Million Tokens, auf Augenhöhe mit Googles Gemini
  • V4-Pro erreicht bei Coding-Benchmarks die Leistung von OpenAIs GPT-5.4 und liegt bei Reasoning nur hinter Gemini
  • DeepSeek behauptet „drastisch reduzierte Rechen- und Speicherkosten“ im Vergleich zu Konkurrenten
  • Die Veröffentlichung erfolgt, während Tencent und Alibaba Berichten zufolge Gespräche über eine Investition in DeepSeek zu einer Bewertung von über 20 Milliarden US-Dollar führen

(SeaPRwire) –   Das chinesische KI-Startup DeepSeek hat am Freitag Vorschauversionen seines neuen Flaggschiff-Open-Source-Modells V4 veröffentlicht. Das Unternehmen gibt an, dass das neue Modell verbesserte Reasoning-Fähigkeiten, geringere Kosten und ein riesiges Kontextfenster bietet.

DeepSeek hat zwei Versionen veröffentlicht: V4-Pro und V4-Flash. Die Pro-Version verfügt über 1,6 Billionen Parameter. Die Flash-Version ist ein leichteres Modell mit 284 Milliarden Parametern, das effizienter und kostengünstiger sein soll.

Beide Modelle unterstützen ein Kontextfenster von einer Million Tokens. Das bedeutet, dass sie eine große Menge Text auf einmal verarbeiten können, was sie in diesem Bereich auf Augenhöhe mit Googles Gemini bringt.

DeepSeek gab an, dass die Modelle derzeit nur Text verarbeiten. Das Unternehmen fügte hinzu, dass es an der Integration multimodaler Fähigkeiten arbeitet, die es den Modellen in Zukunft ermöglichen würden, Bilder und Videos zu verarbeiten.

Vergleich mit Konkurrenten

Auf MMLU-Pro, einem weit verbreiteten KI-Benchmark, erreichte V4-Pro die Leistung von OpenAIs GPT-5.4. Es lag leicht hinter Googles Gemini und Anthropic Claude Opus 4.6. Bei Reasoning-Benchmarks lag V4-Pro nur hinter dem neuesten Gemini-Modell.

DeepSeek gab außerdem an, dass V4 für KI-Agenten-Tools wie Claude Code, OpenCode und CodeBuddy optimiert wurde.

Das Unternehmen beschrieb die Kontextlänge von V4 als „weltweit führend mit drastisch reduzierten Rechen- und Speicherkosten“. Analyst Zhang Yi nannte es einen „Wendepunkt“ und sagte, dass die Unterstützung für ultra-lange Kontexte von Forschungslaboren in den alltäglichen kommerziellen Einsatz übergehen könnte.

KI-Analyst Max Liu bezeichnete die Veröffentlichung als „Meilenstein“ für Chinas KI-Industrie und verglich ihre potenzielle Auswirkung mit der ersten Einführung von DeepSeeks R1.

Markt- und Investitionskontext

Dies ist die erste größere Neuentwicklung eines Modells von DeepSeek seit der Einführung von R1 Anfang 2025. Dieses Modell hat die globalen Technologiewerte, einschließlich Nvidia und Meta, aufgemischt, indem es zeigte, dass ein günstigeres, schlankeres Modell mit teuren Closed-Source-Konkurrenten mithalten kann.

DeepSeek gab nicht an, welche Chips zum Trainieren von V4 verwendet wurden. Anfang dieses Jahres beschuldigten US-Beamte das Unternehmen der Verwendung von verbotenen Nvidia Blackwell-Chips. Ein Bericht von The Information besagte, dass die Modelle stattdessen auf Huawei-Chips trainiert wurden.

Huawei bestätigte, dass sein Ascend Supernode mit Ascend 950 KI-Chips die V4-Modelle von DeepSeek vollständig unterstützen würde.

Die Veröffentlichung erfolgt wenige Tage, nachdem Berichte veröffentlicht wurden, dass Tencent und Alibaba Gespräche über eine Investition in DeepSeek zu einer Bewertung von über 20 Milliarden US-Dollar führen. DeepSeek gilt als eines der sechs führenden KI-Einhörner Chinas.

Eine Vorschauversion von V4 ist jetzt auf Hugging Face verfügbar. DeepSeek hat kein Datum für die vollständige Veröffentlichung bekannt gegeben.

Der Artikel wird von einem Drittanbieter bereitgestellt. SeaPRwire (https://www.seaprwire.com/) gibt diesbezüglich keine Zusicherungen oder Darstellungen ab.

Branchen: Top-Story, Tagesnachrichten

SeaPRwire liefert Echtzeit-Pressemitteilungsverteilung für Unternehmen und Institutionen und erreicht mehr als 6.500 Medienshops, 86.000 Redakteure und Journalisten sowie 3,5 Millionen professionelle Desktops in 90 Ländern. SeaPRwire unterstützt die Verteilung von Pressemitteilungen in Englisch, Koreanisch, Japanisch, Arabisch, Vereinfachtem Chinesisch, Traditionellem Chinesisch, Vietnamesisch, Thailändisch, Indonesisch, Malaiisch, Deutsch, Russisch, Französisch, Spanisch, Portugiesisch und anderen Sprachen.