Người dân cần cảnh giác với chiêu trò lừa đảo chiếm đoạt tài sản bằng công nghệ Deepfake làm giả cuộc gọi video call. (Ảnh minh họa)
Thủ đoạn tinh vi
“Deepfake” là cụm từ được kết hợp từ “deep learning” và “fake”, là phương thức tạo ra các sản phẩm công nghệ giả (fake) dưới dạng âm thanh, hình ảnh hoặc thậm chí là cả video, bởi trí tuệ nhân tạo (AI) tinh vi. Deepfake là công nghệ tạo ra các sản phẩm công nghệ âm thanh, hình ảnh và video làm giả đối tượng ngoài đời thực với độ chính xác rất cao. Dựa trên tệp hình ảnh khuôn mặt, giọng nói của một người ngoài đời thực, Deepfake sẽ sử dụng thuật toán để tái tạo lại khuôn mặt và giọng nói phù hợp với nét mặt, biểu cảm của một người khác, sau đó tạo ra video giả mạo đối tượng ngoài đời thực.
Để thực hiện được hành vi lừa đảo, chiếm đoạt tài sản của người dùng mạng xã hội, đầu tiên, đối tượng tạo lập tài khoản giả mạo trên mạng xã hội trùng thông tin và ảnh đại diện với người dùng hoặc chiếm quyền sử dụng mạng xã hội của người dùng, sau đó thu thập thông tin cá nhân, hình ảnh, video có giọng nói được đăng tải công khai trên tài khoản mạng xã hội rồi sử dụng công nghệ Deepfake tạo ảnh động, video giả mạo người dùng đang nói chuyện trực tuyến với cùng khuôn mặt, âm điệu giọng nói và cách xưng hô.
Hoặc đối tượng lập tài khoản giả mạo trên mạng xã hội trùng thông tin và ảnh đại diện với người dùng, kết bạn với nạn nhân trong danh sách bạn bè và nhắn tin vay mượn tiền theo kịch bản sẵn có. Một số trường hợp, đối tượng chiếm đoạt tài khoản mạng xã hội của người dùng để trực tiếp nhắn tin cho nạn nhân trong danh sách bạn bè. Để tạo lòng tin với nạn nhân, đối tượng truyền tải Deepfake video có sẵn lên kênh video call, khiến nạn nhân nhận ra hình ảnh và giọng nói người quen và chuyển tiền theo yêu cầu của đối tượng.
Với công nghệ Deepfake, video giả mạo có độ chính xác cao, rất khó phân biệt thật giả. Tuy nhiên, video do đối tượng tạo sẵn thường có nội dung chung chung, không phù hợp hoàn toàn với ngữ cảnh thực tế giao tiếp với nạn nhân, có thể khiến nạn nhân nghi ngờ, phát hiện. Để che lấp khuyết điểm trên, các đối tượng thường tạo ra video với âm thanh khó nghe, hình ảnh không rõ nét giống cuộc gọi video có tín hiệu chập chờn được thực hiện trong khu vực phủ sóng di động hoặc wifi yếu.
Nâng cao cảnh giác
Theo Công an tỉnh, thời gian qua, trên địa bàn tỉnh An Giang tuy chưa phát hiện vụ việc người dân bị lừa đảo chiếm đoạt tài sản sử dụng công nghệ Deepfake, nhưng dự báo thời gian tới, loại tội phạm này sẽ phát triển mạnh, gây ảnh hưởng nghiêm trọng đến tình hình trật tự, an toàn xã hội. Để chủ động phòng ngừa, đấu tranh ngăn chặn với loại tội phạm lợi dụng công nghệ Deepfake nhằm lừa đảo, chiếm đoạt tài sản trên địa bàn, Công an tỉnh đã chỉ đạo công an các đơn vị, địa phương tăng cường công tác tuyên truyền, phổ biến phương thức, thủ đoạn lừa đảo chiếm đoạt tài sản giả mạo cuộc gọi video đến các cơ quan, doanh nghiệp, người dân trên địa bàn… Ngoài ra, công an các đơn vị, địa phương tổ chức tốt công tác tiếp nhận tin báo, tố giác tội phạm; nắm tình hình, chủ động phát hiện, đấu tranh với hoạt động sử dụng không gian mạng lừa đảo, chiếm đoạt tài sản.
Để chủ động phòng ngừa, phát hiện, đấu tranh, xử lý, ngăn chặn loại tội phạm này, Chủ tịch UBND tỉnh An Giang Nguyễn Thanh Bình yêu cầu các cơ quan, đơn vị và địa phương tăng cường tuyên truyền phương thức, thủ đoạn của tội phạm sử dụng công nghệ Deepfake để lừa đảo, chiếm đoạt tài sản qua mạng xã hội nhằm nâng cao nhận thức, ý thức cảnh giác đến cán bộ, công chức, viên chức, học sinh, sinh viên, người lao động và quần chúng nhân dân đối với loại tội phạm này. Khi nhận được bất kỳ tin nhắn hay cuộc gọi video call có tín hiệu chập chờn, không rõ ràng để vay mượn tiền, cần gọi điện trực tiếp qua số điện thoại người nhận để xác minh, không gọi qua các ứng dụng mạng xã hội, như: Zalo, Messenger, Viber, Telegram… vì có thể các tài khoản này đã bị chiếm quyền sử dụng. Trường hợp nghi vấn đối tượng giả mạo để lừa đảo, chiếm đoạt tài sản, cần báo ngay cho cơ quan công an nơi gần nhất để được hỗ trợ, xử lý kịp thời.
Công an tỉnh cho biết, hoạt động lợi dụng công nghệ Deepfake làm giả cuộc gọi video nhằm lừa đảo, chiếm đoạt tài sản là thủ đoạn rất mới, tinh vi. Do đó, khuyến cáo người dân nêu cao tinh thần cảnh giác khi nhận được cuộc gọi video call, cần kiểm chứng bằng cách liên hệ qua số điện thoại của các mạng viễn thông để xác thực hoặc liên hệ gặp trực tiếp để xác nhận, giao nhận tiền, tránh bị các đối tượng lừa đảo, gây thiệt hại tài sản.