Появление чат-ботов, таких как ChatGPT от OpenAI, облегчает нашу жизнь.
Искусственный интеллект (ИИ) может отвечать на сложные вопросы пользователей и даже выполнять задачи необычайно похожим на человеческие способом.
По этой причине иногда пользователи хотят «рассказать» ИИ-чат-ботам всю информацию о себе, поскольку считают это безвредным. Однако это действие имеет непредсказуемые последствия.
Эксперты предупреждают пользователей о том, что не стоит делиться слишком большой информацией с чат-ботами на основе искусственного интеллекта. Фото: The Sun
Эксперт по кибербезопасности Стэн Каминский из «Лаборатории Касперского» (Россия) предупреждает: «Не отправляйте никакие свои персональные данные чат-ботам с искусственным интеллектом».
«Никогда не сообщайте чат-ботам свои пароли, номера паспортов, удостоверений личности, банковских карт, адреса, номера телефонов, настоящие имена и другие персональные данные, принадлежащие вам, вашей компании или вашим клиентам», — отметил он.
Г-н Каминский также предупредил пользователей не загружать документы в чат-боты. «Это подвергает вас риску утечки конфиденциальных данных, интеллектуальной собственности или коммерческих тайн, таких как даты выпуска новых продуктов или целые платежные ведомости компании», — объясняет он.
Эксперты «Лаборатории Касперского» объясняют, что персональные данные, отправляемые ИИ-чат-ботам, могут быть легко раскрыты разными способами. Например, ChatGPT автоматически сохраняет разговоры для обучения новых версий.
Во время этого процесса чат-бот может случайно поделиться вашей информацией с другими пользователями. Кроме того, ваш разговор с чат-ботом на основе искусственного интеллекта может быть проверен модераторами.
«Помните, что все, чем вы делитесь с чат-ботом, может быть использовано против вас. Лучше всего сохранять анонимность своих разговоров с чат-ботом», — цитирует The Sun экспертов.
Источник: https://nld.com.vn/tam-su-voi-chatbot-ai-coi-chung-bi-lo-du-lieu-ca-nhan-196240217141619813.htm
Комментарий (0)