Mô hình này có khả năng suy luận, giải quyết các vấn đề toán học phức tạp và trả lời các câu hỏi nghiên cứu khoa học, đây được xem là một bước tiến quan trọng trong nỗ lực phát triển trí tuệ nhân tạo tổng quát (AGI) – những cỗ máy có khả năng nhận thức như con người.
Theo Financial Times, OpenAI đã xếp hạng rủi ro của các mô hình mới này là “trung bình” đối với các vấn đề liên quan đến vũ khí hóa học, sinh học, phóng xạ và hạt nhân (CBRN), mức cao nhất mà công ty từng đánh giá. Điều này có nghĩa là công nghệ này đã “cải thiện đáng kể” khả năng của các chuyên gia trong việc tạo ra vũ khí sinh học.
Theo các chuyên gia, các phần mềm AI có khả năng suy luận chi tiết, đặc biệt trong tay những đối tượng xấu, có thể làm gia tăng nguy cơ lạm dụng.
Giáo sư Yoshua Bengio, một nhà khoa học AI hàng đầu thế giới từ Đại học Montreal, đã nhấn mạnh rằng mức rủi ro trung bình này càng làm tăng tính cấp bách trong việc ban hành các quy định về AI, như dự luật SB 1047 đang được tranh luận tại California. Dự luật này yêu cầu các nhà sản xuất AI phải thực hiện các biện pháp nhằm giảm nguy cơ mô hình của họ bị lạm dụng để phát triển vũ khí sinh học.
Theo The Verge, vấn đề an ninh và an toàn của các mô hình AI đã trở thành mối quan tâm lớn trong bối cảnh các công ty công nghệ như Google, Meta và Anthropic đang chạy đua để xây dựng và cải tiến các hệ thống AI tiên tiến.
Các hệ thống này có tiềm năng mang lại lợi ích lớn khi giúp con người hoàn thành công việc và hỗ trợ trong nhiều lĩnh vực khác nhau, nhưng cũng đặt ra những thách thức về an toàn và trách nhiệm xã hội.
Cao Phong (theo FT, Reuters, The Verge)
Nguồn: https://www.congluan.vn/openai-thua-nhan-mo-hinh-ai-moi-co-the-duoc-su-dung-de-tao-ra-vu-khi-sinh-hoc-post312337.html