Vào tháng 3, Cơ quan bảo vệ dữ liệu của chính phủ Ý (Garante) đã ban hành lệnh cấm tạm thời đối với ChatGPT. Theo CoinTelegraph, hàng trăm nhà nghiên cứu AI và lãnh đạo công nghệ, bao gồm CEO Tesla Elon Musk và nhà đồng sáng lập Apple Steve Wozniak, cũng đã ký một bức thư ngỏ kêu gọi tạm ngừng phát triển AI trong 6 tháng.
Những nỗ lực kiềm chế sự phát triển AI vô trách nhiệm là điều đáng khen ngợi, nhưng các mối đe dọa mà AI gây ra đối với quyền riêng tư và bảo mật dữ liệu lại vượt ra ngoài phạm vi mà nhà phát triển có thể kiểm soát. Thậm chí, các vụ bê bối xung quanh quyền riêng tư dữ liệu trong AI đã xảy ra trước khi ChatGPT ra mắt, nhưng hầu như không được công khai.
Mới năm ngoái, Clearview AI, một công ty nhận dạng khuôn mặt dựa trên AI được rất nhiều chính phủ và cơ quan thực thi pháp luật sử dụng, đã bị cấm bán công nghệ nhận dạng khuôn mặt cho các doanh nghiệp tư nhân ở Mỹ. Công ty này cũng bị phạt 9,4 triệu USD tại Anh vì thu thập cơ sở dữ liệu nhận diện khuôn mặt một cách bất hợp pháp.
Hàng loạt vụ bê bối deepfake gần đây liên quan đến nội dung khiêu dâm và tin tức giả mạo được tạo ra thông qua AI càng dấy lên lo ngại sử dụng AI cho mục đích xấu. Ví dụ, hình thức lừa đảo thông qua cuộc gọi deepfake sẽ giả mạo gương mặt và giọng nói của người thân khiến nạn nhân dễ dàng bị sập bẫy. Hay bức ảnh giả mạo vụ nổ tại Lầu Năm Góc và cựu Tổng thống Mỹ Donald Trump bị bắt đã bị đem đi lan truyền khắp nơi trên mạng xã hội. Có thể nói, AI đang trở thành mối đe dọa thực sự đối với con người, đặc biệt là những nhân vật có sức ảnh hưởng đến công chúng.
Các mô hình AI tạo sinh được huấn luyện dựa trên dữ liệu mới và dữ liệu hiện có để xây dựng và củng cố khả năng. Cần lưu ý rằng một mô hình dựa trên đầu vào dữ liệu mới (new data input) sẽ cần lấy dữ liệu từ nơi khác, bao gồm cả dữ liệu cá nhân của người dùng. Lượng dữ liệu đó có thể dễ dàng bị lạm dụng nếu tin tặc nắm được.
Chính phủ nhiều nước đã bắt đầu có động thái quan tâm đến việc giám sát AI. Bên cạnh lệnh cấm ChatGPT của Ý, EU và Brazil đều đang thông qua các đạo luật để xử phạt và quản lý phát triển AI. Vào tháng 4, Canada đã mở cuộc điều tra đối với OpenAI sau khi tiếp nhận đơn khiếu nại ChatGPT thu thập, sử dụng và tiết lộ thông tin cá nhân mà chưa có sự đồng ý của người dùng.
Vấn đề vi phạm dữ liệu AI nghiêm trọng đến mức OpenAI thậm chí phải vào cuộc. Công ty đã tạm thời tắt tính năng lịch sử hội thoại của OpenAI vì một lỗi kỹ thuật đã để lộ tiêu đề cuộc trò chuyện của người dùng và tiết lộ thông tin thanh toán.
Khi sử dụng một sản phẩm miễn phí, dữ liệu cá nhân của người dùng mới chính là sản phẩm. Chỉ sau 2 tháng ra mắt, ChatGPT đã đạt 100 triệu người dùng, một con số đầy ấn tượng mở đường cho cuộc đua phát triển AI. Nhưng bất chấp những con số này, AI vẫn chưa thực sự phổ biến. Cơ quan quản lý và các công ty cần nhanh chóng chủ động tạo ra khuôn khổ cho sự phát triển AI có trách nhiệm và an toàn trước khi quá muộn. Hiện tại, việc bảo vệ thông tin người dùng và quyền riêng tư chưa được đặt lên hàng đầu trong quá trình phát triển AI, nhưng vẫn còn thời gian để tìm ra con đường phù hợp nhằm đảm bảo thông tin và quyền riêng tư của người dùng luôn được đặt lên hàng đầu.