Vào thứ Hai vừa qua, Văn phòng Tổng chưởng lý bang New Hampshire thông báo đang tiến hành điều tra về khả năng thao túng cử tri. Điều này đến sau khi có khiếu nại về một giọng nói giả mạo, giống hệt Tổng thống Mỹ Joe Biden, kêu gọi cử tri không bỏ phiếu trong cuộc bầu cử sơ bộ của bang này.
Các nhà nghiên cứu cũng cảnh báo về việc sử dụng âm thanh deepfake để bắt chước các chính trị gia và nhà lãnh đạo, với các trường hợp nổi bật từng xảy ra vào năm 2023 ở Vương quốc Anh, Ấn Độ, Nigeria, Sudan, Ethiopia và Slovakia.
Theo các chuyên gia, âm thanh deepfake trở thành một hình thức thông tin sai lệch phổ biến do sự xuất hiện của hàng loạt công cụ AI giá rẻ và hiệu quả từ các công ty khởi nghiệp. Microsoft cũng đã phát triển một mô hình AI mới có thể sao chép giọng nói chỉ từ ba giây ghi âm.
Henry Ajder, chuyên gia về AI và deepfake, đồng thời là cố vấn cho Adobe, Meta và EY, cho biết: “Khi nói đến thao tác trực quan, mọi người đều quen với Photoshop hoặc ít nhất là biết nó tồn tại. Có rất ít nhận thức về cách tài liệu âm thanh có thể bị thao túng, do đó, đối với tôi, điều đó thực sự khiến chúng ta dễ bị tổn thương”.
Trong tháng 9, NewsGuard, hệ thống đánh giá chất lượng và độ tin cậy của các trang web tin tức, phát hiện một mạng lưới tài khoản TikTok giả danh các trang tin tức hợp pháp, sử dụng nội dung được tạo ra bởi AI để lan truyền thuyết âm mưu và thông tin sai lệch về chính trị. Các đoạn ghi âm deepfake, bao gồm giọng của cựu Tổng thống Mỹ Barack Obama, đã thu hút hàng trăm triệu lượt xem.
NewsGuard cho biết, phần lồng tiếng giả dường như được tạo ra bởi một công cụ do ElevenLabs của Andreessen Horowitz hậu thuẫn cung cấp, trong khi các đoạn clip đã thu hút hàng trăm triệu lượt xem.
“Hơn 99% người dùng trên nền tảng của chúng tôi đang tạo ra nội dung thú vị, sáng tạo, hữu ích nhưng chúng tôi nhận thấy rằng có những trường hợp sử dụng sai mục đích và chúng tôi đã liên tục phát triển cũng như đưa ra các biện pháp bảo vệ để hạn chế chúng”, ElevenLabs cho biết.
ElevenLabs, được thành lập hai năm trước bởi cựu nhân viên Google và Palantir, Piotr Dabkowski và Mati Staniszewski, cung cấp các công cụ tạo âm thanh AI thô sơ miễn phí chỉ bằng một cú nhấp chuột. Các gói đăng ký dao động từ $1 một tháng đến $330 một tháng và cao hơn nữa đối với những người tìm kiếm các dịch vụ phức tạp hơn.
Năm ngoái, các cơ quan tình báo Mỹ đã cảnh báo trong một báo cáo rằng “các vụ lừa đảo AI được cá nhân hóa đã gia tăng đáng kể do việc phát hành các mô hình nhân bản giọng nói AI tinh vi và được đào tạo bài bản”.
Ngoài các vụ lừa đảo có động cơ tài chính, các chuyên gia chính trị hiện đang gióng lên hồi chuông cảnh báo về các clip âm thanh deepfake lan truyền cũng như việc sử dụng deepfake để gọi điện tự động hoặc các chiến dịch. AJ Nash, phó chủ tịch và thành viên tình báo nổi tiếng của nhóm an ninh mạng ZeroFox cho biết: “Bạn có thể xây dựng một chiến dịch thông tin sai lệch mạnh mẽ, rộng khắp bằng cách nhắm mục tiêu vào điện thoại”.
Một số công ty này đã chủ động tìm kiếm những cách khác để chống lại thông tin sai lệch. Microsoft đã đưa ra một tuyên bố đạo đức, kêu gọi người dùng báo cáo bất kỳ hành vi lạm dụng nào đối với công cụ âm thanh AI của họ. ElevenLabs đã xây dựng các công cụ phát hiện của riêng mình để xác định các bản ghi âm do hệ thống của mình tạo ra.
Theo nhóm nhân quyền Freedom House, trong cuộc bầu cử năm 2023 ở Nigeria, một đoạn clip do AI thao túng đã lan truyền trên mạng xã hội “cố tình ám chỉ một ứng cử viên đối lập đang có kế hoạch gian lận trong việc bỏ phiếu”.
Tại Slovakia, một đoạn ghi âm giả của ứng cử viên đối lập Michal Šimečka dường như đang âm mưu gian lận cuộc bầu cử đã được lan truyền chỉ vài ngày trước cuộc bầu cử tổng thống nước này vào tháng 9.
Robert Weissman, chủ tịch nhóm vận động người tiêu dùng phi lợi nhuận Public Citizen cho biết: “Deepfake ở New Hampshire là một lời nhắc nhở về nhiều cách mà deepfake có thể gây nhầm lẫn và gian lận. Thời điểm deepfake chính trị đã đến. Các nhà hoạch định chính sách phải nhanh chóng đưa ra các biện pháp bảo vệ nếu không chúng ta sẽ phải đối mặt với sự hỗn loạn bầu cử”.
Mai Anh (theo FT)