Множество проблем ИИ в новую эпоху

Báo Sài Gòn Giải phóngBáo Sài Gòn Giải phóng16/08/2024


По мере того, как ИИ становится все более доступным, все больше людей и предприятий используют ИИ с помощью общих инструментов, хакеры также могут автоматизировать атаки, ускорять операции и развертывать более сложные кампании для достижения своих незаконных целей.

«Лаборатория Касперского» раскрывает типы кибератак с использованием ИИ
«Лаборатория Касперского» раскрывает типы кибератак с использованием ИИ

Вот типы атак, которые обнаружила компания «Лаборатория Касперского»: ChatGPT может использоваться для разработки вредоносного ПО и автоматического развертывания атак на несколько жертв; Программы ИИ проникают в данные пользователей на смартфонах, и в процессе анализа конфиденциальных данных злоумышленники могут полностью «читать» сообщения, пароли и банковские коды жертв; алгоритмы роевого интеллекта помогают автоматизированным компьютерным сетям (бонетам) восстанавливать вредоносные сети, которые были устранены решениями безопасности.

Исследования «Лаборатории Касперского» по использованию ИИ для взлома паролей показывают, что большинство паролей шифруются с использованием алгоритмов хеширования, таких как MD5 и SHA. Соответственно, для преобразования пароля в строку зашифрованного текста требуется всего лишь простая операция, но обратный процесс представляет собой сложную задачу.

С помощью искусственного интеллекта злоумышленники могут использовать мошеннический контент, включая текст, изображения, аудио и видео, для проведения атак с использованием социальной инженерии. Большие языковые модели, такие как ChatGPT-4o, используются для создания сложнейших скриптов и сообщений. Преодолевая языковые барьеры, ИИ может написать настоящее электронное письмо, просто основываясь на информации в социальных сетях. ИИ может даже имитировать стиль письма жертвы. Это еще больше затрудняет обнаружение мошеннических действий.

В то же время Deepfake существует как «проблема» в кибербезопасности, хотя ранее он считался продуктом научных исследований. Наиболее распространенным методом является выдача себя за знаменитостей с целью получения финансовой выгоды. Далее мошенники также используют Deepfake для кражи аккаунтов, совершения поддельных звонков друзьям и родственникам жертв с целью присвоения имущества.

Помимо использования технологий ИИ в противозаконных целях, злоумышленники также могут атаковать алгоритмы ИИ. Такие как атаки «быстрого внедрения» путем ввода вредоносных команд в большие языковые модели, даже противоречащие ранее ограниченным правилам; Сопернические атаки подразумевают добавление скрытых информационных полей к изображениям или аудиоданным с целью повлиять на способность системы машинного обучения классифицировать изображения.

ИИ постепенно интегрируется во все аспекты жизни человека: от Apple Intelligence, Google Gemini до Microsoft Copilot. Поэтому устранение уязвимостей ИИ должно стать главным приоритетом. «Лаборатория Касперского» уже много лет использует технологию искусственного интеллекта для защиты клиентов и партнеров, постоянно ищет уязвимости в системах искусственного интеллекта, чтобы повысить их устойчивость, а также активно исследует методы кибератак для предоставления надежных решений по защите от атак искусственного интеллекта.

КИМ ТХАНЬ



Источник: https://www.sggp.org.vn/nhieu-thach-thuc-cua-ai-trong-thoi-dai-moi-post754401.html

Комментарий (0)

No data
No data

Та же тема

Та же категория

Распространение национальных культурных ценностей через музыкальные произведения
Цвет лотоса Хюэ
Хоа Минзи раскрывает переписку с Сюань Хинем, рассказывает закулисную историю «Bac Bling», вызвавшую всемирную лихорадку
Фукуок — тропический рай

Тот же автор

Наследство

Фигура

Бизнес

No videos available

Новости

Министерство - Филиал

Местный

Продукт