Laut BGR ist DeepSeek R1, ein neues KI-Modell (künstliche Intelligenz) aus China, trotz seiner raschen Popularität und des Lobes für seine Leistung einer Welle heftiger Kritik aus der Community ausgesetzt. Cybersicherheit
DeepSeek R1 neigt dazu, mehr bösartige Inhalte zu generieren
Die neuesten Untersuchungen von Enkrypt AI zeigen, dass R1 mit deutlich höherer Wahrscheinlichkeit bösartige Inhalte generiert als Konkurrenten wie ChatGPT.
Insbesondere wurde festgestellt, dass R1 voreingenommene Tendenzen aufweist und Schadcode, bösartige Sprache, extremistische Inhalte und sogar Informationen im Zusammenhang mit gefährlichen chemischen und biologischen Waffen erstellt. Beunruhigend ist, dass diese Inhalte ohne „Jailbreak“-Techniken erstellt werden können.
Einige Highlights aus dem Bericht:
- R1 ist dreimal stärker voreingenommen als Claude-3 Opus (anthropisch).
- R1 ist viermal anfälliger für Malware als o1 (OpenAI).
- R1 generiert mit 11-mal höherer Wahrscheinlichkeit schädliche Inhalte als O1.
Diese Risiken werfen große Fragen zur Sicherheit von DeepSeek R1 auf, insbesondere angesichts der weiten Verbreitung der Anwendung. Benutzer sollten bei der Interaktion mit R1 vorsichtig sein und sicherere Alternativen in Betracht ziehen.
Darüber hinaus ist DeepSeek auch in viele andere Kontroversen verwickelt, beispielsweise:
- Zensur von Inhalten, die für die chinesische Regierung vertraulich sind.
- Das Senden von Benutzerdaten nach China weckt Datenschutzbedenken.
- Ungesicherter Speicherort der Benutzerdaten.
Zwar könnte DeepSeek aktualisiert werden, um die Sicherheit von R1 zu verbessern, es wäre jedoch eine große Herausforderung, wenn Benutzer diese Version der KI lokal installieren und sie nicht automatisch aktualisieren lassen würden. Die Zukunft von DeepSeek R1 bleibt ein großes Fragezeichen, insbesondere da Sicherheitsbedenken noch nicht vollständig ausgeräumt sind.
[Anzeige_2]
Quelle: https://thanhnien.vn/deepseek-r1-tao-noi-dung-doc-hai-gap-nhieu-lan-cac-ai-khac-185250201211507372.htm
Kommentar (0)