Vietnam.vn - Nền tảng quảng bá Việt Nam

DeepSeeks neuer „Trumpf“ enthüllt

DeepSeek hat gerade die neueste aktualisierte Version seines großen Sprachmodells mit dem Codenamen V3-0324 veröffentlicht, die erhebliche Verbesserungen bei den Argumentations- und Programmierfunktionen aufweist.

Zing NewsZing News26/03/2025

Die neue KI von DeepSeek sorgt mit ihrer herausragenden Leistung weiterhin für Aufsehen in der Technikwelt. Foto: SCMP .

DeepSeek stellt offiziell DeepSeek V3-0324 vor, die neueste Version der V3-Reihe großer Sprachmodelle (LLM).

Wie die vorherigen Versionen wird dieses Modell kostenlos als Open Source über die Hugging Face-Plattform veröffentlicht und weist gegenüber den vorherigen Versionen erhebliche Verbesserungen auf, insbesondere in den Bereichen Argumentation und Programmierung.

Konkret basiert DeepSeek V3-0324 laut OpenRouter auf der Verwendung von Mixture of Experts (MoE), einer Methode des maschinellen Lernens, die in einigen chinesischen KI-Modellen sehr beliebt ist und über 685 Milliarden Parameter verfügt.

Ersten Testberichten zufolge zeigt das Modell bei einer Vielzahl von Aufgaben eine beeindruckende Leistung. Unterdessen zeigt ein Reddit-Beitrag, dass DeepSeek V3-0324 bei einem Test der Programmcode-Generierung mit Googles Sonnet 3.7-Modell gleichgezogen hat.

Quellen deuten auch darauf hin, dass DeepSeek V3-0324 in der Lage ist, lange Codeausschnitte ohne Fehler zu generieren. AI Analytics Vidhya hat dieses Modell getestet und seine Fähigkeit aufgezeichnet, reibungslos 700 Zeilen Code zu generieren.

Unter X sorgte auch die Anwendung DeepSeek V3-0324 für großes Aufsehen. Um dies zu beweisen, hat Deepanshu Sharma ein Video gepostet, das zeigt, wie dieses KI-Modell problemlos eine komplette Website mit mehr als 800 Codezeilen generieren kann.

DeepSeek wurde im Dezember 2024 mit der Einführung von DeepSeek-V3 zum bekanntesten chinesischen KI-Unternehmen. Dieses Modell erreicht eine mit GPT-4o vergleichbare Leistung, nutzt aber nur einen Bruchteil der Rechenressourcen.

Nicht lange danach veröffentlichte DeepSeek weiterhin das DeepSeek-R1-Argumentationsmodell. Laut TechCrunch übertrifft R1 OpenAIs o1 bei Benchmarks wie AIME, MATH-500 und SWE-Bench Verified.

Gleichzeitig ist auch die Summe von 5,6 Millionen Dollar für das Training der letzten Stufe des DeepSeek-Modells schockierend, verglichen mit den Hunderten von Millionen Dollar, die führende US-Unternehmen für das Training ihrer Modelle ausgeben müssen.

Quelle: https://znews.vn/at-chu-bai-moi-cua-deepseek-lo-dien-post1540831.html


Kommentar (0)

No data
No data

Gleiche Kategorie

Diesen Sommer erwartet Sie Da Nang mit sonnigen Stränden.
Hubschrauber, die trainiert wurden, die Parteiflagge und die Nationalflagge am Himmel von Ho-Chi-Minh-Stadt zu hissen
Der Trend „Patriotisches Baby“ verbreitet sich vor dem Feiertag am 30. April in den sozialen Netzwerken
Café sorgt am 30. April mit Getränk in Nationalflagge für Fieber

Gleicher Autor

Erbe

Figur

Geschäft

No videos available

Nachricht

Politisches System

Lokal

Produkt