SGGPO
Cơ quan bảo vệ dữ liệu của Italy, ngày 22-11, tuyên bố đã bắt đầu điều tra tìm hiểu thực tế về hành vi thu thập lượng lớn dữ liệu cá nhân trực tuyến để sử dụng trong đào tạo thuật toán trí tuệ nhân tạo (AI).
Hồi đầu năm nay, ChatGPT đã bị cấm hoạt động ở Italy trong một thời gian ngắn. Ảnh: GETTY IMAGES. |
Chính quyền Italy cho biết, việc điều tra nhằm đánh giá liệu các trang web trực tuyến có đưa ra “các biện pháp thích hợp” để ngăn nền tảng AI thu thập lượng lớn dữ liệu cá nhân cho các thuật toán hay không. Sau điều tra, Cơ quan bảo vệ dữ liệu sẽ thực hiện các bước cần thiết tiếp theo.
Theo hãng tin Reuters, cơ quan quản lý quyền riêng tư này nổi tiếng là một trong những cơ quan chủ động nhất trong số 31 cơ quan bảo vệ dữ liệu quốc gia trong việc đánh giá sự tuân thủ của nền tảng AI với chế độ bảo mật dữ liệu của Châu Âu được gọi là Quy định bảo vệ dữ liệu chung (GDPR).
Đầu năm nay, cơ quan này đã cấm chatbot phổ biến ChatGPT hoạt động ở Italy trong một thời gian ngắn do nghi ngờ vi phạm các quy tắc quyền riêng tư.
Để đảm bảo một cuộc kiểm tra toàn diện, Italy đã mời các học giả, chuyên gia AI và các nhóm người tiêu dùng tham gia vào quá trình tìm hiểu thực tế, chia sẻ quan điểm hoặc nhận xét của họ trong khoảng thời gian 60 ngày.
Các nhà lập pháp châu Âu đã đi đầu trong việc soạn thảo các quy tắc nhằm thiết lập tiêu chuẩn toàn cầu cho công nghệ đã trở thành chìa khóa cho hầu hết mọi ngành công nghiệp và doanh nghiệp.
Pháp, Đức và Italy gần đây đã đạt được thỏa thuận quy định về AI. Các chính phủ này ủng hộ các cam kết tự nguyện, nhưng các quy tắc ứng xử và tính minh bạch phải có tính ràng buộc về mặt pháp lý đối với các nhà cung cấp AI ở Liên minh châu Âu, bất kể quy mô của nhà cung cấp. Thỏa thuận này được kỳ vọng sẽ đẩy nhanh các cuộc đàm phán ở cấp độ châu Âu, hy vọng các quy định dự thảo có thể được phê duyệt vào tháng tới.