SGGPO
20/10/2023 19:13
Không còn được dùng cho mục đích giải trí, deepfake đang dần bị các tội phạm mạng khai thác trở thành công cụ lừa đảo… và các vụ lừa đảo bằng deepfake sẽ tăng cao với nhiều hình thức đa dạng và tinh vi hơn.
Kaspersky nhận định các vụ lừa đảo bằng deepfake sẽ tăng cao với nhiều hình thức đa dạng và tinh vi hơn. |
Sau khi nghiên cứu trên diễn đàn darknet (darknet forum), nơi các tội phạm công nghệ thường xuyên hoạt động, Kaspersky nhận định có nhiều tội phạm sử dụng deepfake để lừa đảo, đến mức nhu cầu sử dụng vượt xa nguồn cung các phần mềm deepfake hiện có trên thị trường.
Các chuyên gia của Kaspersky dự đoán rằng các vụ lừa đảo bằng deepfake sẽ tăng cao với nhiều hình thức đa dạng và tinh vi hơn. Từ cung cấp một video mạo danh chất lượng cao với đầy đủ dịch vụ sản xuất cho đến việc sử dụng hình ảnh người nổi tiếng trong luồng phát trực tuyến giả mạo (fake livestream) trên mạng xã hội và hứa hẹn sẽ thanh toán gấp đôi số tiền nạn nhân đã gửi họ.
Mặc dù AI đang bị các tội phạm lạm dụng cho những mục đích xấu, các cá nhân và doanh nghiệp vẫn có thể tận dụng AI để nhận diện deepfake nhằm giảm thiểu xác suất thành công của các vụ lừa đảo. Kaspersky chia sẻ các giải pháp để người dùng tự bảo vệ mình khỏi các trò lừa đảo deepfake:
Công cụ phát hiện nội dung AI: Những phần mềm phát hiện nội dung do AI tạo ra sử dụng thuật toán AI tiên tiến để phân tích và xác định mức độ bị chỉnh sửa của tệp hình ảnh, video, âm thanh.
Nội dung AI được đánh dấu watermark: Hình mờ (watermark) đóng vai trò là dấu hiệu nhận biết trong hình ảnh, video… giúp tác giả bảo vệ bản quyền cho các tác phẩm AI. Tuy nhiên, công cụ này có thể trở thành vũ khí chống lại deepfake vì hình thức này có thể giúp truy tìm nguồn gốc của nền tảng tạo ra AI.
Truy xuất nguồn gốc nội dung: Vì AI thu thập lượng lớn dữ liệu từ nhiều nguồn khác nhau để tạo nội dung mới, phương pháp này nhằm mục đích truy tìm nguồn gốc của nội dung đó.
Xác thực video: là quá trình xác thực nội dung video không bị thay đổi so với giai đoạn đầu được tạo. Đây là quá trình được người sáng tạo video quan tâm nhất.
“Deepfake đã trở thành cơn ác mộng đối với phụ nữ và xã hội. Tội phạm mạng hiện đang khai thác trí tuệ nhân tạo (AI) để ghép khuôn mặt nạn nhân vào ảnh và video khiêu dâm cũng như trong chiến dịch tuyên truyền. Những hình thức này nhằm mục đích thao túng dư luận bằng cách phát tán thông tin sai lệch hoặc thậm chí gây tổn hại đến danh tiếng của tổ chức hoặc cá nhân. Chúng tôi kêu gọi công chúng nâng cao cảnh giác trước mối đe dọa này,” bà Võ Dương Tú Diễm, Giám đốc khu vực Việt Nam của Kaspersky chia sẻ.