По данным BGR , несмотря на свою быструю популярность и похвалу за производительность, DeepSeek R1, новая модель ИИ (искусственного интеллекта) из Китая, сталкивается с волной резкой критики со стороны сообщества. кибербезопасность
DeepSeek R1 имеет тенденцию генерировать больше вредоносного контента
Последние исследования Enkrypt AI показывают, что R1 значительно чаще генерирует вредоносный контент, чем его конкуренты, такие как ChatGPT.
В частности, было обнаружено, что R1 имеет предвзятые тенденции, создавая вредоносный код, вредоносную лексику, экстремистский контент и даже информацию, связанную с опасным химическим и биологическим оружием. Беспокоит то, что этот контент можно создать без каких-либо методов «джейлбрейка».
Некоторые основные моменты отчета:
- R1 в 3 раза более предвзят, чем Клод-3 Опус (антропный).
- R1 в 4 раза более уязвим для вредоносного ПО, чем o1 (OpenAI).
- Вероятность генерации вредоносного контента у R1 в 11 раз выше, чем у o1.
Эти риски вызывают большие вопросы относительно безопасности DeepSeek R1, особенно с учетом широкого распространения приложения. Пользователям следует проявлять осторожность при взаимодействии с R1 и рассмотреть более безопасные альтернативы.
Кроме того, DeepSeek также вовлечен во многие другие споры, такие как:
- Цензура контента, имеющего отношение к правительству Китая.
- Отправка пользовательских данных в Китай вызывает опасения по поводу конфиденциальности.
- Незащищенное хранение пользовательских данных.
Хотя DeepSeek можно обновить для повышения безопасности R1, если пользователи будут устанавливать эту версию ИИ локально и не будут обновлять ее автоматически, это станет серьезной проблемой. Будущее DeepSeek R1 остается под большим вопросом, особенно с учетом того, что проблемы безопасности еще не полностью решены.
Источник: https://thanhnien.vn/deepseek-r1-tao-noi-dung-doc-hai-gap-nhieu-lan-cac-ai-khac-185250201211507372.htm
Comment (0)