СГГПО
Эксперты «Лаборатории Касперского» поделились своим анализом возможных последствий внедрения искусственного интеллекта (ИИ), особенно потенциальных психологических рисков этой технологии.
Г-н Виталий Камлюк рассказывает об искусственном интеллекте |
Виталий Камлюк, директор Глобальной исследовательской и аналитической группы «Лаборатории Касперского» (GReAT) в Азиатско-Тихоокеанском регионе, рассказал, что когда киберпреступники используют ИИ для совершения преступлений, они могут возлагать вину на технологию и чувствовать себя менее ответственными за последствия кибератаки.
«Помимо технологических угроз со стороны ИИ существуют также потенциальные психологические опасности. Распространенный психологический синдром среди «сообщества» киберпреступников также известен как «синдром избегания чувства вины». Совершая нападения или причиняя вред прохожим, преступники будут испытывать сильное психологическое давление, поскольку станут непосредственными свидетелями последствий, которые они вызовут. «Однако это не относится к виртуальному киберпреступнику, который крадет и нападает на жертву, которую он никогда не видит», — пояснил г-н Камлюк.
Еще одним психологическим побочным эффектом ИИ, который может повлиять на команды по ИТ-безопасности, является «делегирование ответственности». Это происходит по мере того, как все больше процессов и инструментов кибербезопасности автоматизируются и делегируются искусственным нейронным сетям, люди могут чувствовать себя менее ответственными в случае кибератаки, особенно в корпоративной среде.
«С развитием искусственного интеллекта мы увидели прорывы в технологиях, которые могут синтезировать контент, аналогичный тому, что делают люди: от изображений до аудио, фейковых видеороликов и даже текстовых разговоров, неотличимых от человеческих. Как и большинство технологических прорывов, ИИ — палка о двух концах. «Мы всегда можем использовать это в своих интересах, если знаем, как установить правила безопасности для этих умных машин», — добавил г-н Камлюк.
Источник
Комментарий (0)