Что вы думаете о тенденции использования хакерами искусственного интеллекта в качестве «оружия» для совершения кибератак и мошенничества?
Доктор Нгуен Туан Кханг: Согласно индексу угроз X-Force Threat Intelligence Index 2024 компании IBM, Азиатско-Тихоокеанский регион, включая Вьетнам, станет регионом, который в 2023 году подвергнется наибольшему количеству кибератак в мире. Из них наиболее пострадавшей от кибератак отраслью станет обрабатывающая промышленность.
Главным приемом злоумышленников по-прежнему остаются фишинговые атаки, нацеленные на уязвимые объекты и эксплуатирующие уязвимости для установки вредоносного ПО. Кроме того, в 2024 году наметилась тенденция кибератак с использованием искусственного интеллекта (ИИ).
В отчете Wired отмечается, что многие злоумышленники используют генеративный ИИ для проведения взломов, создания мошеннических чат-ботов или поддельных изображений и видео лиц и голосов других людей с помощью Deepfake.
Однако наряду с этой тенденцией системы информационной безопасности также начинают включать функции искусственного интеллекта, такие как watsonx. Искусственный интеллект можно эксплуатировать, но он также может заменить людей в анализе, мониторинге, идентификации чисел, прогнозировании сценариев атак, тем самым повышая возможности защиты и минимизируя риски информационной безопасности.
Мошенничества с использованием дипфейков становятся все более распространенными. Учитывая стремительное развитие ИИ, насколько опасными будут подобные атаки в будущем?
Доктор Нгуен Туан Кханг: По сути, Deepfake — это технология, которая помогает хакерам создавать поддельные цифровые личности, тем самым выдавая себя за других людей. Дипфейк станет опасной проблемой, поскольку эта технология становится все более и более сложной.
Для борьбы с дипфейком первое, что нужно сделать, — это определить, является ли изображение или голос человека сгенерированным искусственным интеллектом. В настоящее время не существует универсального инструмента, который мог бы мгновенно обнаружить Deepfakes, поскольку злоумышленники постоянно разрабатывают новые модели.
Помимо распознавания дипфейков, существует еще один метод борьбы с ними — использование технологий анализа поведения. С организационной и деловой точки зрения необходимо разработать систему, объединяющую оба эти метода.
В последнее время имели место кибератаки, в ходе которых хакеры тайно внедряли вредоносный код в корпоративные системы. Вредоносная программа выжидает и анализирует всю активность, создавая тем самым поддельную личность для осуществления своих злонамеренных намерений. С развитием технологии Deepfake в сочетании со способностью искусственного интеллекта создавать видеоролики подобные атаки в будущем станут гораздо более опасными.
Как мы можем защитить пожилых людей, детей и другие уязвимые группы от мошенников в связи с эскалацией кибератак Deepfake?
Доктор Нгуен Туан Кханг: Пожилые люди и дети часто подвергаются атакам мошенников, использующих технику, называемую социальной инженерией. Это термин, описывающий атаки посредством манипулирования поведением человека.
Теперь хакеры могут использовать ИИ в сочетании со сбором, добычей и анализом данных, чтобы выявлять людей, которые с большой вероятностью могут стать жертвами мошенничества, а затем находить способы атаковать. Помимо повышения осведомленности общественности, мы также должны признать, что будут ситуации, когда пользователи будут обмануты, и должны использовать технологии для их обнаружения и предотвращения.
Недавно произошел случай, когда сотрудник банка заподозрил у пожилой женщины, пришедшей перевести деньги, признаки мошенничества. Этот человек вовремя остановил его и сообщил властям. Теперь банковским ИТ-системам необходимо использовать технологии, способные заменить людей при выполнении таких задач.
Роль технологий заключается в том, что даже если человек, переводящий деньги, известен, система все равно предотвратит это, если заподозрит, что этим поведением манипулирует кто-то другой. Такие инструменты называются системами борьбы с мошенничеством и контрафактной продукцией.
Не пора ли Вьетнаму ввести санкции для управления ИИ и включить исследования, разработки и использование ИИ в конкретную структуру?
Доктор Нгуен Туан Кханг: Санкции за управление ИИ упоминаются уже давно, однако по-прежнему существует много спорных вопросов. Например, на парковке в моем районе установлена система искусственного интеллекта, которая распознает номерные знаки, но кражи все равно случаются. Затем начался спор о том, чья это вина. Кто несет ответственность: владелец квартиры, охранник или разработчик системы искусственного интеллекта?
С тех пор правила здания изменились, и теперь жильцы могут использовать систему распознавания номерных знаков с помощью искусственного интеллекта для удобства, но они должны принять на себя риски. Те, кто согласен, смогут пользоваться автоматической дверью, тем, кто не согласен, придется парковать свои машины по-старому. Такие санкции нам необходимы.
Аналогичным образом компания IBM когда-то разработала систему искусственного интеллекта для профилактики рака. Когда система выписывает лекарство, но после его приема спасти пациента все равно не удается, виноват ли в этом врач или искусственный интеллект?
Я считаю, что санкции в отношении ИИ должны быть конкретно регламентированы, четко определяя, что можно и что нельзя делать при разработке приложений ИИ. Чтобы сделать мир безопаснее, самые элементарные санкции, которые мы можем ввести, — это требование биометрической аутентификации для крупных денежных переводов. В такой ситуации люди, утратившие свои идентификационные данные, могут полностью избежать потери денег.
Спасибо, сэр.
Источник
Комментарий (0)