Искусственный интеллект (ИИ), подобный ChatGPT, стал мировой сенсацией с начала 2023 года, но этот ИИ не всегда используется в позитивных целях. Недавно эксперт по безопасности нашел способ заставить ChatGPT генерировать вредоносный код во время тестирования.
Аарон Малгрю — эксперт по безопасности компании Forcepoint поделился риском написания вредоносного кода с использованием языкового чат-бота, разработанного OpenAI. Хотя ChatGPT разработан так, чтобы пользователи не могли просить ИИ разрабатывать вредоносный код, Аарон нашел лазейку, создав подсказки, которые позволяют ИИ писать программный код строка за строкой. Объединив все это, Аарон понял, что в его руках оказался необнаружимый инструмент для кражи данных, настолько сложный, что его можно сравнить с самыми современными вредоносными программами.
Каждая отдельная командная строка, сгенерированная ChatGPT, в сочетании может стать сложной вредоносной программой.
Открытие Малгрю — это предупреждение о возможности использования ИИ для создания опасного вредоносного ПО без необходимости участия хакерской группы или даже создания инструмента, написавшего хотя бы одну строчку кода.
Программное обеспечение Малгрю замаскировано под приложение-заставку, но способно автоматически активироваться на устройствах на базе Windows. Попав в операционную систему, вредоносная программа «проникает» в каждый файл, включая текстовые редакторы Word, файлы изображений и PDF-файлы, в поисках данных для кражи.
Получив все необходимое, программа разбивает информацию на части и прикрепляет ее к файлам изображений на машине. Чтобы избежать обнаружения, эти фотографии были загружены в папку в облачном хранилище Google Диска. Вредоносная программа становится сверхмощной, поскольку Малгрю может настраивать и улучшать ее функции, чтобы избежать обнаружения с помощью простых команд, вводимых в ChatGPT.
Хотя это результат закрытого тестирования, проведенного экспертами по безопасности, и за пределами тестирования не было совершено ни одной атаки, эксперты по кибербезопасности все равно признают опасность действий с использованием ChatGPT. Малгрю утверждает, что у него мало опыта в программировании, но искусственный интеллект OpenAI все равно оказался недостаточно мощным и умным, чтобы остановить его тест.
Ссылка на источник
Комментарий (0)