Jennifer DeStefano chết lặng khi nghe giọng nói cầu cứu giống hệt con gái lớn Brianna, 15 tuổi. Sau khi điều tra, tất cả chỉ là một trò lừa đảo với sự giúp sức của AI.
Một buổi chiều ngày 20/1, điện thoại của Jennifer DeStefano reo lên ngay sau khi vừa bước ra khỏi chiếc ôtô đậu bên ngoài phòng tập khiêu vũ nơi con gái nhỏ Aubrey đang có buổi tập. Người gọi đến không rõ danh tính, và DeStefano dự tính sẽ không bắt máy.
Tuy nhiên, con gái lớn của cô là Brianna, 15 tuổi, lại đang tập luyện cho một cuộc đua trượt tuyết. DeStefano sợ rằng đó có thể là cuộc gọi khẩn cấp.
“Xin chào?”, cô trả lời qua loa điện thoại, trong lúc khóa xe và xách ví cùng túi đựng laptop vào phòng tập. Đột nhiên, DeStefano nghe thấy tiếng la hét và khóc nức nở.
Jennifer DeStefano và hai cô con gái. Ảnh: NVCC. |
“Mẹ ơi, con gặp chuyện lớn rồi!”, giọng một cô gái hét lên. “Con đã làm gì? Chuyện gì đang xảy ra thế?”, người mẹ lập tức đặt câu hỏi cho người gọi ở đầu dây bên kia.
Phút giây hoảng loạn
Tâm sự với tờ CNN, DeStefano cho biết giọng nói kêu cứu cực kỳ giống với Brianna từ cách nhấn âm cho đến mọi thứ. “Tôi nghĩ con bé đã bị trượt khỏi núi, điều thường xảy ra khi trượt tuyết. Thế là tôi bắt đầu hoang mang”, DeStefano nói.
Tiếng kêu cứu tiếp tục vang lên và một giọng nam trầm bắt đầu ra lệnh: “Nghe đây. Con gái của cô đang trong tay tôi. Nếu cô gọi cho cảnh sát hay bất cứ ai, tôi sẽ tiêm cho con bé đầy ma túy. Tôi sẽ đưa nó đến Mexico và cô sẽ không bao giờ gặp lại con gái mình nữa”.
DeStefano lập tức chết lặng. Sau đó, cô chạy vào phòng tập, run rẩy và la hét cầu cứu. Cô cảm thấy như mình đột nhiên bị chết đuối.
DeStefano trải qua giờ khắc kinh hoàng khi giọng nói giống hệt Brianna cầu cứu qua điện thoại. Ảnh: Jennifer DeStefano. |
Một loạt sự kiện hỗn loạn diễn ra sau đó. Bọn bắt cóc nhanh chóng đưa ra yêu cầu tiền chuộc 1 triệu USD, DeStefano quyết định gọi cho cảnh sát. Sau hàng loạt nỗ lực để tiếp cận Brianna, vụ “bắt cóc” đã bị vạch trần.
Hóa ra, tất cả chỉ là một vụ lừa đảo. Brianna bối rối gọi điện để nói với mẹ rằng cô không hề biết những chuyện ồn ào này là gì, trong khi mọi thứ với cô vẫn ổn.
Tuy nhiên, với DeStefano, cô sẽ không bao giờ có thể quên cuộc gọi kinh hoàng kéo dài trong 4 phút, với một giọng nói kỳ lạ đó.
DeStefano tin rằng cô là nạn nhân của một vụ lừa đảo bắt cóc ảo thông qua điện thoại với sự trợ giúp của deepfake. Với công nghệ AI này, những kẻ bắt cóc khiến gia đình nạn nhân sợ hãi bằng âm thanh đã bị thay đổi sao cho giống với giọng nói của nạn nhân và đòi tiền chuộc.
Mặt tối của AI
Theo Siobhan Johnson, phát ngôn viên của Cục Điều tra Liên bang Mỹ (FBI), trung bình các gia đình tại Mỹ đã mất khoảng 11.000 USD cho mỗi cuộc gọi lừa đảo.
Trung bình các gia đình tại Mỹ đã mất khoảng 11.000 USD cho mỗi cuộc gọi lừa đảo. Ảnh: Matthew Fleming. |
Trong năm 2022, dữ liệu từ Ủy ban Thương mại Liên bang Mỹ (FTC) thống kê cho thấy người Mỹ đã mất tổng cộng 2,6 tỷ USD vì các cuộc gọi lừa đảo.
Trong bản ghi âm cuộc gọi của DeStefano do Sở cảnh sát Scottsdale cung cấp cho CNN, một bà mẹ tại phòng tập khiêu vũ cố gắng giải thích cho người điều phối chuyện gì đang xảy ra.
“Một người mẹ vừa bước vào và cô ấy nhận được một cuộc điện thoại từ một người nào đó. Hình như đó là con gái của cô ấy. Có một kẻ bắt cóc nói rằng hắn muốn một triệu USD. Hắn không cho cô ấy nói chuyện với con gái mình”, người gọi điện báo tin cho biết.
Ở phía sau, có thể nghe thấy rõ tiếng DeStefano hét lên “tôi muốn nói chuyện với con gái tôi”. Người điều phối ngay lập tức xác định cuộc gọi này chỉ là một trò lừa bịp.
Thực tế, những cuộc gọi mạo danh với mục đích lừa đảo vẫn thường xuyên diễn ra trên khắp nước Mỹ. Đôi khi, người gọi liên lạc với người lớn tuổi, thông báo cháu của họ bị tai nạn và cần tiền phẫu thuật.
Điểm chung của phương pháp này là những kẻ bắt cóc giả thường sử dụng các đoạn ghi âm lại tiếng đám đông la hét.
Tuy nhiên, các quan chức liên bang Mỹ cảnh báo những vụ lừa đảo này đang ngày càng tinh vi hơn với công nghệ deepfake giả giọng nói nạn nhân để lấy lòng tin người quen, sau đó lừa tiền.
Những vụ lừa đảo tống tiền đang ngày càng tinh vi hơn với công nghệ deepfake giả giọng nói nạn nhân để lấy lòng tin người quen, sau đó lừa tiền. Ảnh: Protocol |
Sự phát triển của các chương trình AI rẻ tiền, dễ tiếp cận đã cho phép những kẻ lừa đảo thoải mái sao chép giọng nói và tạo ra các đoạn hội thoại nghe giống hệt như bản gốc.
“Mối đe dọa này không đơn thuần chỉ là giả thuyết. Chúng tôi đang chứng kiến những kẻ lừa đảo vũ khí hóa các công cụ này. Chúng có thể tạo ra một bản sao giọng nói tương đối tốt chỉ với đoạn âm thanh chưa đầy một phút. Thậm chí, với một số người, chỉ cần vài giây cũng là đủ”, Hany Farid, giáo sư ngành khoa học máy tính tại Đại học Berkeley ở California của Mỹ nhận xét.
Farid cho biết, với sự trợ giúp của phần mềm AI, việc giả giọng nói có thể được thực hiện chỉ với mức phí 5 USD một tháng và bất kỳ ai cũng có thể dễ dàng tiếp cận nó.
FTC hồi tháng 3 cũng đưa ra cảnh báo những kẻ lừa đảo có thể lấy file ghi âm từ các video đăng trên mạng xã hội của nạn nhân.
Ứng dụng trí tuệ nhân tạo để ghép mặt vào video hay giả giọng nói, thường được gọi là deepfake, đang ngày càng phổ biến và nguy hiểm hơn. Đây là một hiểm họa thực sự trên Internet.
Bên cạnh những video nhạy cảm, deepfake còn có thể tạo ra tác hại nghiêm trọng nếu được sử dụng cho mục đích chính trị. Đoạn video ghép mặt cựu Tổng thống Mỹ Barack Obama, từng được lan truyền năm 2018, cho thấy những nhân vật chính trị hàng đầu cũng có thể trở thành nạn nhân.
Năm 2019, đến lượt bà Nancy Pelosi, Chủ tịch Hạ viện Mỹ trở thành nạn nhân. Video bị chỉnh sửa cho thấy hình ảnh bà Pelosi phát biểu trong khi đang say, lời nói không được rõ ràng.
Không chỉ được dùng để ghép video khiêu dâm, deepfake còn mang tới những lo ngại về tin giả trước những thời điểm quan trọng như kỳ bầu cử Tổng thống Mỹ cuối năm 2020. Ảnh: Cnet. |
Vào cuối năm 2019, bang California, Mỹ đã thông qua bộ luật quy định hành vi tạo hoặc chia sẻ video deepfake là phạm pháp. Luật này chỉ rõ những video chỉnh sửa có chứa hình ảnh, video hoặc giọng nói của các chính trị gia trong vòng 60 ngày của cuộc bầu cử là vi phạm pháp luật.
Năm 2019, 2 nhà nghiên cứu của Liên Hợp Quốc (LHQ) Joseph Bullock và Miguel Luengo-Oroz, cho hay mô hình AI của họ được đào tạo bằng các văn bản Wikipedia, cùng hơn 7.000 bài phát biểu từ Đại hội đồng có thể dễ dàng làm giả phát biểu của lãnh đạo các nước.
Nhóm nghiên cứu cho hay họ chỉ phải cung cấp cho AI một vài từ ngữ để tạo ra văn bản mạch lạc, “chất lượng cao”.
Ví dụ, khi các nhà nghiên cứu đưa ra tiêu đề “Tổng thư ký lên án mạnh mẽ các vụ tấn công khủng bố chết người xảy ra ở Mogadishu”, AI có thể tạo ra bài phát biểu thể hiện sự ủng hộ đối với quyết định của LHQ.