Trong một cảnh báo được lưu hành tuần này, FBI cho biết gần đây họ đã quan sát thấy sự gia tăng các nạn nhân bị tống tiền nói rằng họ đã bị nhắm mục tiêu bằng cách sử dụng AI để chỉnh sửa những hình ảnh bình thường, được lấy từ các bài đăng trực tuyến, tin nhắn cá nhân hoặc trò chuyện video, thành những phiên bản giả mạo.
Cảnh báo cho biết: “Những bức ảnh sau đó được gửi trực tiếp cho nạn nhân bởi những kẻ độc ác để tống tiền hoặc quấy rối tình dục. Sau khi chúng bị phát tán, nạn nhân có thể phải đối mặt với những thách thức đáng kể trong việc ngăn chặn việc chia sẻ liên tục nội dung bị thao túng, cũng như để xóa chúng khỏi internet”.
Cục này cho biết những hình ảnh này có vẻ “thật như cuộc sống”, đồng thời nhấn mạnh rằng trẻ em cũng đã được nhắm mục tiêu trong một số trường hợp.
Hồi tháng 2 vừa rồi, cảnh sát ở Tây Ban Nha bắt giữ một lập trình viên máy tính đã sử dụng AI để tạo ra những hình ảnh lạm dụng trẻ em ghê tởm trong vụ việc được cho là một trong những vụ bắt giữ đầu tiên thuộc loại này.
FBI không đi sâu vào chi tiết về các chương trình AI được sử dụng để tạo hình ảnh tình dục, nhưng lưu ý rằng những tiến bộ công nghệ đang “liên tục cải thiện chất lượng, khả năng tùy chỉnh và khả năng tiếp cận của việc tạo nội dung được hỗ trợ bởi trí tuệ nhân tạo”.
Việc chỉnh sửa những bức ảnh bình thường để tạo ra những bức ảnh khiêu dâm gần như đã cũ như nhiếp ảnh, nhưng việc các công cụ AI nguồn mở bùng nổ gần đây đã khiến quá trình này trở nên dễ dàng hơn bao giờ hết.
Các ảnh hoặc video giả thường không thể phân biệt được với các phiên bản đời thực. Thậm chí, một số trang web cũng như mạng xã hội chuyên tạo và trao đổi hình ảnh tình dục được hỗ trợ bởi AI đã xuất hiện trong những năm gần đây.
Đây được xem như một trong hàng loạt mối rủi ro mà trí tuệ nhân tạo có thể gây hại cho xã hội như điều mà các chuyên gia đã lo ngại và cảnh báo gần đây.
Hoàng Anh (theo Daily Mail, Reuters)