Ảnh minh họa. (Nguồn: Brecorder)
Theo Reuters, Nhật Bản ngày 26/5 cho biết giới chức Nhóm các nước công nghiệp phát triển hàng đầu thế giới (G7) sẽ nhóm họp trong tuần tới để đánh giá những vấn đề do các công cụ trí tuệ nhân tạo (AI) tạo sinh như ChatGPT gây ra.
Tại Hội nghị thượng đỉnh G7 diễn ra ở Hiroshima (Nhật Bản) hồi tuần trước, G7 đã nhất trí xây dựng diễn đàn liên chính phủ mang tên “Tiến trình AI Hiroshima” để thảo luận những vấn đề liên quan đến các công cụ AI đang phát triển nhanh chóng.
Theo Bộ trưởng Truyền thông Nhật Bản Takeaki Matsumoto, các quan chức chính phủ của G7 sẽ tổ chức cuộc họp cấp chuyên viên đầu tiên về AI vào ngày 30/5 tới và thảo luận những vấn đề như bảo vệ quyền sở hữu trí tuệ, cách thức quản lý thông tin sai lệch và công nghệ.
Với tư cách là Chủ tịch luân phiên G7 năm 2023, Nhật Bản “sẽ dẫn dắt G7 thảo luận về chủ đề sử dụng công nghệ AI tạo sinh.”
Diễn đàn được kỳ vọng sẽ đưa ra những gợi ý chính sách cho các nguyên thủ quốc gia vào cuối năm nay.
Trước đó, Liên minh châu Âu (EU) và công ty Google muốn thiết lập các quy tắc tự nguyện về kiểm soát AI trong quá trình chờ đợi EU ban hành luật về công nghệ đang phát triển nhanh chóng này.
EU và Mỹ có kế hoạch đẩy mạnh hợp tác về AI để thiết lập các tiêu chuẩn tối thiểu trước khi luật kiểm soát AI ra đời, trong bối cảnh vấn đề này đã trở nên cấp bách hơn kể từ sau sự ra đời của ChatGPT.
Trong khi đó, ngày 22/5, Chủ tịch OpenAI – công ty sáng tạo ra ChatGPT, ông Greg Brockman cho biết OpenAI đang thử nghiệm cách thức thu thập dữ liệu lớn về các quyết định tác động tới AI.
Tại AI Forward – sự kiện do Goldman Sachs Group Inc và SV Angel tổ chức ở San Francisco (Mỹ), ông Brockman đã thảo luận về cách OpenAI nỗ lực tìm kiếm quy định quản lý AI trên toàn cầu.
Ông đang hướng đến mô hình tương tự như của Wikipedia, đòi hỏi người dùng có quan điểm khác nhau nhất trí về nội dung đăng trên trang bách khoa toàn thư trực tuyến này.
Ông nhấn mạnh việc tự mình đưa ra quy định quản lý cho tất cả mọi người là không khả thi, mà đây là một quá trình đưa ra quyết định mang tính dân chủ.
Chủ tịch Brockman cho rằng các chính phủ trên thế giới cần phối hợp để đảm bảo AI được phát triển một cách an toàn.
Đánh giá về tương lai đối với AI, ông Brockman và OpenAI nhận định một tổ chức như Cơ quan Năng lượng nguyên tử quốc tế (IAEA) có thể đặt ra những hạn chế đối với việc triển khai, tuân thủ chặt chẽ với các tiêu chuẩn an toàn và theo dõi việc sử dụng năng lực của máy tính.
Một giải pháp khác do ông Brokman đề xuất là xây dựng thỏa thuận toàn cầu nhằm giúp hạn chế tốc độ phát triển của các năng lực mang tính tiên phong của AI, hoặc một dự án chung toàn cầu mà các chính phủ lớn có thể tham gia.
Tuần trước, Giám đốc điều hành (CEO) OpenAI, Sam Altman cũng đã đề xuất với các nhà lập pháp Mỹ về việc tạo ra các hành lang pháp lý đối với AI, trong đó có việc yêu cầu giấy phép phát triển các mô hình AI phức tạp và xây dựng cơ chế quản lý liên quan.
Phát biểu trong phiên điều trần trước Tiểu ban Tư pháp Thượng viện Mỹ, CEO Altman nhấn mạnh OpenAI được thành lập dựa trên niềm tin rằng AI có khả năng cải thiện gần như mọi khía cạnh trong đời sống con người, song cũng có thể gây những rủi ro nghiêm trọng.
Ông dự đoán trong thời gian tới, AI do OpenAI phát triển sẽ giải quyết một số thách thức lớn nhất trên thế giới như biến đổi khí hậu và điều trị bệnh ung thư.
Tuy nhiên, trước những lo ngại về thông tin sai lệch, đảm bảo việc làm và các rủi ro tiềm tàng khác, ông cho rằng sự can thiệp của chính phủ thông qua các quy định có ý nghĩa quan trọng để giảm thiểu các nguy cơ tiềm tàng của những công nghệ ngày càng phát triển./.
(Vietnam+)