Vietnam.vn - Nền tảng quảng bá Việt Nam

DeepSeeks neuer „Trumpf“ enthüllt

DeepSeek hat gerade die neueste aktualisierte Version seines großen Sprachmodells mit dem Codenamen V3-0324 veröffentlicht, die erhebliche Verbesserungen bei den Argumentations- und Programmierfunktionen aufweist.

Zing NewsZing News26/03/2025

Die neue KI von DeepSeek sorgt mit ihrer herausragenden Leistung weiterhin für Aufsehen in der Technikwelt. Foto: SCMP .

DeepSeek stellt offiziell DeepSeek V3-0324 vor, die neueste Version der V3-Reihe großer Sprachmodelle (LLM).

Wie die vorherigen Versionen wird dieses Modell kostenlos als Open Source über die Hugging Face-Plattform veröffentlicht und weist gegenüber den vorherigen Versionen erhebliche Verbesserungen auf, insbesondere in den Bereichen Argumentation und Programmierung.

Konkret basiert DeepSeek V3-0324 laut OpenRouter auf der Verwendung von Mixture of Experts (MoE), einer Methode des maschinellen Lernens, die in einigen chinesischen KI-Modellen sehr beliebt ist und über 685 Milliarden Parameter verfügt.

Ersten Testberichten zufolge zeigt das Modell bei einer Vielzahl von Aufgaben eine beeindruckende Leistung. Unterdessen zeigt ein Reddit-Beitrag, dass DeepSeek V3-0324 bei einem Test der Programmcode-Generierung mit Googles Sonnet 3.7-Modell gleichgezogen hat.

Quellen deuten auch darauf hin, dass DeepSeek V3-0324 in der Lage ist, lange Codeausschnitte ohne Fehler zu generieren. AI Analytics Vidhya hat dieses Modell getestet und seine Fähigkeit aufgezeichnet, reibungslos 700 Zeilen Code zu generieren.

Unter X sorgte auch die Anwendung DeepSeek V3-0324 für großes Aufsehen. Um dies zu beweisen, hat Deepanshu Sharma ein Video gepostet, das zeigt, wie dieses KI-Modell problemlos eine komplette Website mit mehr als 800 Codezeilen generieren kann.

DeepSeek wurde im Dezember 2024 mit der Einführung von DeepSeek-V3 zum bekanntesten chinesischen KI-Unternehmen. Dieses Modell erreicht eine mit GPT-4o vergleichbare Leistung, nutzt aber nur einen Bruchteil der Rechenressourcen.

Nicht lange danach veröffentlichte DeepSeek weiterhin das DeepSeek-R1-Argumentationsmodell. Laut TechCrunch übertrifft R1 OpenAIs o1 bei Benchmarks wie AIME, MATH-500 und SWE-Bench Verified.

Gleichzeitig ist auch die Summe von 5,6 Millionen Dollar für das Training der letzten Stufe des DeepSeek-Modells schockierend, verglichen mit den Hunderten von Millionen Dollar, die führende US-Unternehmen für das Training ihrer Modelle ausgeben müssen.

Quelle: https://znews.vn/at-chu-bai-moi-cua-deepseek-lo-dien-post1540831.html


Kommentar (0)

No data
No data

Gleiche Kategorie

Weibliche Kommandos üben Parade zum 50. Jahrestag der Wiedervereinigung
Überblick über die Eröffnungszeremonie des Nationalen Tourismusjahres 2025: Hue – Alte Hauptstadt, neue Möglichkeiten
Hubschrauberstaffel mit der Nationalflagge überfliegt den Unabhängigkeitspalast
Konzertbruder überwindet tausend Schwierigkeiten: „Durch das Dach brechen, zur Decke fliegen und Himmel und Erde durchbrechen“

Gleicher Autor

Erbe

Figur

Geschäft

No videos available

Nachricht

Politisches System

Lokal

Produkt