Một nhóm chuyên gia quốc tế nổi tiếng đã gặp nhau tại Bắc Kinh vào tuần trước, nơi họ xác định “ranh giới đỏ” trong việc phát triển AI, bao gồm cả việc chế tạo vũ khí sinh học và tiến hành các cuộc tấn công mạng.
Trong một tuyên bố vài ngày sau cuộc họp, các học giả cảnh báo rằng cần có một cách tiếp cận chung về an toàn AI để ngăn chặn “những rủi ro thảm khốc hoặc thậm chí hiện hữu đối với nhân loại trong cuộc đời của chúng ta”.
“Trong đỉnh điểm thời Chiến tranh Lạnh, sự phối hợp giữa chính phủ và khoa học quốc tế đã giúp ngăn chặn thảm họa hat nhân. Nhân loại một lần nữa cần phải phối hợp để ngăn chặn thảm họa có thể phát sinh từ công nghệ chưa từng có”, tuyên bố viết.
Những người ký kết bao gồm Geoffrey Hinton và Yoshua Bengio, những người thường được mô tả là những “cha đẻ” của AI; Stuart Russell, giáo sư khoa học máy tính tại Đại học California; và Andrew Yao, một trong những nhà khoa học máy tính nổi tiếng nhất Trung Quốc.
Tuyên bố này được đưa ra sau sự kiện Đối thoại Quốc tế về An toàn AI tại Bắc Kinh vào tuần trước, một cuộc họp có sự tham gia của các quan chức Chính phủ Trung Quốc nhằm thể hiện sự tán thành đối với diễn đàn và kết quả của nó.
Tổng thống Mỹ Joe Biden và Chủ tịch Trung Quốc Tập Cận Bình đã gặp nhau vào tháng 11 năm ngoái và thảo luận về vấn đề an toàn AI, đồng ý thiết lập đối thoại về vấn đề này. Các công ty AI hàng đầu trên thế giới cũng đã gặp gỡ các chuyên gia AI Trung Quốc một cách kín đáo trong những tháng gần đây.
Vào tháng 11/2023, 28 quốc gia, bao gồm cả Trung Quốc và các công ty AI hàng đầu đã đồng ý cam kết rộng rãi hợp tác để giải quyết các rủi ro hiện hữu bắt nguồn từ AI tiên tiến trong hội nghị thượng đỉnh về an toàn AI của Thủ tướng Anh Rishi Sunak.
Tại Bắc Kinh tuần trước, các chuyên gia đã thảo luận về các mối đe dọa liên quan đến sự phát triển của “Trí tuệ tổng hợp nhân tạo – AGI”, hay các hệ thống AI ngang bằng hoặc vượt trội hơn con người.
Bengio cho biết: “Trọng tâm cốt lõi của cuộc thảo luận là các ranh giới đỏ mà không hệ thống AI mạnh mẽ nào nên vượt qua và các chính phủ trên thế giới nên áp đặt trong việc phát triển và triển khai AI”.
Những ranh giới đỏ này sẽ giúp “không hệ thống AI nào có thể sao chép hoặc cải thiện chính nó mà không có sự chấp thuận và hỗ trợ rõ ràng của con người” hoặc “thực hiện các hành động để tăng sức mạnh và ảnh hưởng của nó một cách quá mức”.
Các nhà khoa học nói thêm rằng không có hệ thống nào được “tăng cường đáng kể khả năng của các tác nhân thiết kế vũ khí hủy diệt hàng loạt, vi phạm công ước về vũ khí sinh học hoặc hóa học” hoặc có thể “tự động thực hiện các cuộc tấn công mạng dẫn đến tổn thất tài chính nghiêm trọng hoặc tổn hại tương đương”.
Hoàng Hải (theo FT)