Что вы думаете о тенденции использования хакерами искусственного интеллекта в качестве «оружия» для совершения кибератак и мошенничества?

Доктор Нгуен Туан Кханг: Согласно индексу угроз X-Force Threat Intelligence Index 2024 компании IBM, Азиатско-Тихоокеанский регион, включая Вьетнам, станет регионом, который в 2023 году подвергнется наибольшему количеству кибератак в мире. Из них наиболее пострадавшей от кибератак отраслью станет обрабатывающая промышленность.

Главным приемом злоумышленников по-прежнему остаются фишинговые атаки, нацеленные на уязвимые объекты и эксплуатирующие уязвимости для установки вредоносного ПО. Кроме того, в 2024 году наметилась тенденция кибератак с использованием искусственного интеллекта (ИИ).

В отчете Wired отмечается, что многие злоумышленники используют генеративный ИИ для проведения взломов, создания мошеннических чат-ботов или поддельных изображений и видео лиц и голосов других людей с помощью Deepfake.

Однако наряду с этой тенденцией системы информационной безопасности также начинают включать функции искусственного интеллекта, такие как watsonx. Искусственный интеллект можно эксплуатировать, но он также может заменить людей в анализе, мониторинге, идентификации чисел, прогнозировании сценариев атак, тем самым повышая возможности защиты и минимизируя риски информационной безопасности.

В-нгуен-туан-кханг-ibm-1.jpg
Эксперт по кибербезопасности Нгуен Туан Кханг. Фото: Тронг Дат

Мошенничества с использованием дипфейков становятся все более распространенными. Учитывая стремительное развитие ИИ, насколько опасными будут подобные атаки в будущем?

Доктор Нгуен Туан Кханг: По сути, Deepfake — это технология, которая помогает хакерам создавать поддельные цифровые личности, тем самым выдавая себя за других людей. Дипфейк станет опасной проблемой, поскольку эта технология становится все более и более сложной.

Для борьбы с дипфейком первое, что нужно сделать, — это определить, является ли изображение или голос человека сгенерированным искусственным интеллектом. В настоящее время не существует универсального инструмента, который мог бы мгновенно обнаружить Deepfakes, поскольку злоумышленники постоянно разрабатывают новые модели.

Помимо распознавания дипфейков, существует еще один метод борьбы с ними — использование технологий анализа поведения. С организационной и деловой точки зрения необходимо разработать систему, объединяющую оба эти метода.

В последнее время имели место кибератаки, в ходе которых хакеры тайно внедряли вредоносный код в корпоративные системы. Вредоносная программа выжидает и анализирует всю активность, создавая тем самым поддельную личность для осуществления своих злонамеренных намерений. С развитием технологии Deepfake в сочетании со способностью искусственного интеллекта создавать видеоролики подобные атаки в будущем станут гораздо более опасными.

Как мы можем защитить пожилых людей, детей и другие уязвимые группы от мошенников в связи с эскалацией кибератак Deepfake?

Доктор Нгуен Туан Кханг: Пожилые люди и дети часто подвергаются атакам мошенников, использующих технику, называемую социальной инженерией. Это термин, описывающий атаки посредством манипулирования поведением человека.

Теперь хакеры могут использовать ИИ в сочетании со сбором, добычей и анализом данных, чтобы выявлять людей, которые с большой вероятностью могут стать жертвами мошенничества, а затем находить способы атаковать. Помимо повышения осведомленности общественности, мы также должны признать, что будут ситуации, когда пользователи будут обмануты, и должны использовать технологии для их обнаружения и предотвращения.

W-online-fraud-1.jpg
Предупреждение о случаях выдачи себя за сотрудников полиции с целью мошенничества с денежными переводами со стороны полиции округа Тхань Лыонг (Ханой). Фото: Тронг Дат

Недавно произошел случай, когда сотрудник банка заподозрил у пожилой женщины, пришедшей перевести деньги, признаки мошенничества. Этот человек вовремя остановил его и сообщил властям. Теперь банковским ИТ-системам необходимо использовать технологии, способные заменить людей при выполнении таких задач.

Роль технологий заключается в том, что даже если человек, переводящий деньги, известен, система все равно предотвратит это, если заподозрит, что этим поведением манипулирует кто-то другой. Такие инструменты называются системами борьбы с мошенничеством и контрафактной продукцией.

Не пора ли Вьетнаму ввести санкции для управления ИИ и включить исследования, разработки и использование ИИ в конкретную структуру?

Доктор Нгуен Туан Кханг: Санкции за управление ИИ упоминаются уже давно, однако по-прежнему существует много спорных вопросов. Например, на парковке в моем районе установлена ​​система искусственного интеллекта, которая распознает номерные знаки, но кражи все равно случаются. Затем начался спор о том, чья это вина. Кто несет ответственность: владелец квартиры, охранник или разработчик системы искусственного интеллекта?

С тех пор правила здания изменились, и теперь жильцы могут использовать систему распознавания номерных знаков с помощью искусственного интеллекта для удобства, но они должны принять на себя риски. Те, кто согласен, смогут пользоваться автоматической дверью, тем, кто не согласен, придется парковать свои машины по-старому. Такие санкции нам необходимы.

Аналогичным образом компания IBM когда-то разработала систему искусственного интеллекта для профилактики рака. Когда система выписывает лекарство, но после его приема спасти пациента все равно не удается, виноват ли в этом врач или искусственный интеллект?

Я считаю, что санкции в отношении ИИ должны быть конкретно регламентированы, четко определяя, что можно и что нельзя делать при разработке приложений ИИ. Чтобы сделать мир безопаснее, самые элементарные санкции, которые мы можем ввести, — это требование биометрической аутентификации для крупных денежных переводов. В такой ситуации люди, утратившие свои идентификационные данные, могут полностью избежать потери денег.

Спасибо, сэр.

Мошенничества с использованием Deepfake, поддельных лиц и голосов увеличатся в 2024 году По прогнозу VSEC, в 2024 году увеличатся масштабы кибератак с использованием искусственного интеллекта, включая мошенничества с использованием Deepfake для подделки лиц и голосов.