Hiện Deepfake trở thành mối quan ngại lớn khi số lượng những vụ lừa đảo bằng công nghệ ngày càng gia tăng.
Sau khi nghiên cứu trên diễn đàn Darknet, nơi các tội phạm công nghệ thường xuyên hoạt động, chuyên gia bảo mật nhận thấy có nhiều tội phạm sử dụng Deepfake để lừa đảo đến mức nhu cầu vượt xa nguồn cung các phần mềm Deepfake hiện có trên thị trường.
Khi cầu vượt cung, các chuyên gia của Kaspersky dự đoán số vụ lừa đảo bằng Deepfake sẽ tăng cao, với nhiều hình thức đa dạng và tinh vi hơn: từ cung cấp một video mạo danh chất lượng cao đến việc sử dụng hình ảnh người nổi tiếng trong luồng phát trực tuyến giả mạo (fake livestream) trên mạng xã hội, hứa hẹn sẽ thanh toán gấp đôi số tiền nạn nhân đã gửi họ.
Theo hệ thống tham chiếu thông tin Regula, 37% doanh nghiệp trên thế giới từng gặp lừa đảo Deepfake bằng giọng nói và 29% trở thành nạn nhân của video Deepfake.
Công nghệ này trở thành mối đe dọa đối với an ninh mạng Việt Nam, nơi tội phạm mạng thường sử dụng các cuộc gọi video giả để mạo danh cá nhân hòng vay mượn người thân, bạn bè của họ.
Một cuộc gọi video Deepfake có thể thực hiện chỉ trong một phút nên nạn nhân rất khó phân biệt giữa thật và giả.
“Deepfake trở thành cơn ác mộng với phụ nữ và xã hội. Tội phạm mạng đang khai thác trí tuệ nhân tạo (AI) để ghép khuôn mặt nạn nhân vào ảnh và video khiêu dâm, cũng như trong chiến dịch tuyên truyền.
Những hình thức này nhằm mục đích thao túng dư luận bằng cách phát tán thông tin sai lệch, thậm chí gây tổn hại đến danh tiếng của tổ chức hoặc cá nhân,” bà Võ Dương Tú Diễm, Giám đốc khu vực Việt Nam của Kaspersky chia sẻ.
Mặc dù AI đang bị tội phạm lạm dụng cho những mục đích xấu, các cá nhân và doanh nghiệp vẫn có thể sử dụng chính trí tuệ nhân tạo để nhận diện Deepfake, giảm xác suất thành công của các vụ lừa đảo.
Theo đó, người dùng sẽ có một số giải pháp hữu dụng nhằm bảo vệ mình khỏi trò lừa đảo như sử dụng các phần mềm phát hiện nội dung do AI tạo ra (sử dụng thuật toán tiên tiến để phân tích, xác định mức độ bị chỉnh sửa của hình ảnh/video/âm thanh).
Đối với video Deepfake, hiện có những công cụ giúp nhận diện sự chuyển động không khớp giữa khuôn miệng và lời thoại. Một số chương trình còn “mạnh” đến mức phát hiện lưu lượng máu bất thường dưới da bằng cách phân tích độ phân giải của video vì khi tim bơm máu, tĩnh mạch của con người sẽ đổi màu.
Bên cạnh đó còn có hình mờ (watermark) đóng vai trò là dấu hiệu nhận biết trong hình ảnh, video… giúp tác giả bảo vệ bản quyền cho sản phẩm AI. Tính năng này có thể trở thành vũ khí chống lại Deepfake vì giúp truy tìm nguồn gốc của nền tảng tạo ra trí tuệ nhân tạo. Người dùng có mức độ am hiểu về công nghệ có thể tìm cách truy xuất nguồn gốc nội dung để so sánh dữ liệu gốc đã bị chỉnh sửa ra sao qua “bàn tay” của AI.
Hiện nay, một số công nghệ mới nổi sử dụng thuật toán mã hoá để chèn giá trị băm (hash) theo khoảng cách thời gian đặt trong video. Nếu video đã qua chỉnh sửa, giá trị băm sẽ thay đổi và từ đó người dùng có thể xác thực được nội dung có bị can thiệp hay không.
Trước đây có một số hướng dẫn về việc tìm kiếm điểm khác thường trong video, ví dụ sai lệch màu sắc, chuyển động thiếu tự nhiên của nhóm cơ, ánh mắt… Tuy nhiên AI ngày càng thông minh khiến những giá trị này không phải lúc nào cũng mang lại kết quả đúng.
Quá trình xác thực độ tin cậy của video không còn dựa trên mắt thường mà phải cần đến các công cụ công nghệ được sinh ra với mục đích phòng ngừa, phát giác nội dung giả mạo.
Khánh Linh