По данным BGR , 2024 год станет для мира поворотным моментом в осознании того, является ли искусственный интеллект действительно будущим вычислительной техники или это всего лишь мимолетное увлечение. Хотя реальные области применения ИИ становятся все более разнообразными, темная сторона этой технологии также раскроется в бесчисленных случаях мошенничества в ближайшие месяцы.
Эксперты по борьбе с мошенничеством из Scams.info только что опубликовали список из трех видов мошенничества с использованием искусственного интеллекта, которых следует опасаться всем в 2024 году. Как правило, остерегайтесь всего слишком вычурного, но следующие уловки требуют особой бдительности.
Инвестиционная афера с использованием ИИ
Такие крупные компании, как Google, Microsoft и OpenAI, вложили миллионы долларов в ИИ и продолжат инвестировать еще больше в этом году. Мошенники воспользуются этим фактом, чтобы соблазнить вас инвестировать в сомнительные проекты. Если кто-то в социальных сетях попытается убедить вас, что ИИ увеличит доходность ваших инвестиций, подумайте дважды, прежде чем открывать кошелек.
«Хороших» инвестиций с низким риском не существует.
«Остерегайтесь инвестиций, обещающих высокую доходность при низком риске, и обязательно проведите исследование, прежде чем вкладывать деньги», — предупреждает эксперт Николас Крауч из Scams.info. Новым инвесторам также следует с осторожностью относиться к предложениям порекомендовать инвесторов; Они часто работают по многоуровневой модели, которая приносит пользу только тем, кто находится наверху, в то время как другие участники редко получают выгоду.
Выдавая себя за родственников
Прием выдавать себя за друзей или родственников, чтобы занять денег, уже не нов, поскольку имитация голоса мошенника неэффективна. Однако с появлением искусственного интеллекта этот вид мошенничества становится гораздо более опасным. Имея всего лишь видео на YouTube или публикацию на Facebook с голосом любимого человека, мошенники могут использовать искусственный интеллект, чтобы в точности воспроизвести его. Можете ли вы заметить разницу по телефону?
ИИ может легко имитировать голос вашего любимого человека
Скриншот Washington Post
«Важно, чтобы люди защищали свои аккаунты в социальных сетях, чтобы мошенники не смогли перехватить их голосовые данные и информацию о семье», — подчеркнул Крауч.
Использование голоса для обхода системы безопасности
Некоторые банки используют распознавание голоса для проверки пользователей при совершении транзакций по телефону. По указанным выше причинам этот метод внезапно становится менее безопасным, чем раньше. Если вы публикуете видео или клипы со своим голосом где-либо в Интернете, злоумышленники могут использовать этот контент, чтобы скопировать ваш голос. Как отмечает Крауч, у банков по-прежнему есть и другие данные для проверки личности клиентов, но эта тактика приближает мошенников на один шаг к краже вашего банковского счета.
Системы голосовой безопасности больше не защищены от мощи ИИ
ИИ может кардинально изменить нашу жизнь и то, как мы взаимодействуем с устройствами. Это также новейший инструмент, который хакеры и мошенники будут использовать для атак на пользователей. Поэтому всегда будьте бдительны и тщательно изучайте информацию, прежде чем участвовать в любых мероприятиях, связанных с ИИ.
Ссылка на источник
Комментарий (0)