Bức tranh phức tạp về việc sử dụng robot sát thủ AI
Cho phép AI kiểm soát hệ thống vũ khí có thể có nghĩa là mục tiêu được xác định, tấn công và tiêu diệt mà không cần sự can thiệp của con người. Điều này đặt ra những câu hỏi nghiêm trọng về mặt pháp lý và đạo đức.
Nhấn mạnh mức độ nghiêm trọng của tình hình, Bộ trưởng ngoại giao Áo Alexander Schallenberg phát biểu: “Đây là Khoảnh khắc Oppenheimer của thế hệ chúng ta”.
Thật vậy, mức độ “thần đèn đã thoát khỏi chiếc bình” đã là một câu hỏi cấp thiết, khi thiết bị bay không người lái và trí tuệ nhân tạo (AI) đã được quân đội trên khắp thế giới sử dụng rộng rãi.
Nhà phân tích quốc phòng Wilson Jones của GlobalData chia sẻ: “Việc Nga và Ukraine sử dụng máy bay không người lái trong xung đột hiện đại, việc Mỹ sử dụng máy bay không người lái trong các chiến dịch tấn công có mục tiêu ở Afghanistan và Pakistan và, như được tiết lộ gần đây vào tháng trước, như một phần của chương trình Lavender của Israel, cho thấy khả năng xử lý thông tin của AI đã được quân đội thế giới sử dụng để tăng cường sức mạnh tấn công một cách tích cực thế nào”.
Các cuộc điều tra của Văn phòng Báo chí Điều tra về chiến tranh có trụ sở tại London, hệ thống Lavender AI của quân đội Israel có tỷ lệ chính xác 90% trong việc xác định những cá nhân có liên hệ với Hamas, nghĩa là 10% không phải. Do đó dẫn đến việc dân thường cũng bị thiệt mạng do khả năng nhận dạng và quyết định của AI.
Một mối đe dọa đối với an ninh toàn cầu
Việc sử dụng AI theo cách này nhấn mạnh đến nhu cầu quản lý công nghệ trong các hệ thống vũ khí.
Tiến sĩ Alexander Blanchard, nghiên cứu viên cao cấp của chương trình Quản trị Trí tuệ nhân tạo tại Viện Nghiên cứu Hòa bình Quốc tế Stockholm (SIPRI), một nhóm nghiên cứu độc lập tập trung vào an ninh toàn cầu, giải thích với Army Technology: “Việc sử dụng AI trong các hệ thống vũ khí, đặc biệt là khi được sử dụng để nhắm mục tiêu, đặt ra những câu hỏi cơ bản về chúng ta – con người – và mối quan hệ của chúng ta với chiến tranh, và đặc biệt hơn là những giả định của chúng ta về cách chúng ta có thể sử dụng bạo lực trong các cuộc xung đột vũ trang”.
“AI thay đổi cách quân đội lựa chọn mục tiêu và áp dụng vũ lực vào chúng? Những thay đổi này lần lượt đặt ra một loạt các câu hỏi về pháp lý, đạo đức và hoạt động. Mối quan tâm lớn nhất là nhân đạo”, Tiến sĩ Blanchard nói thêm.
Vị chyên gia của SIPRI giải thích: “Nhiều người lo ngại rằng tùy thuộc vào cách thiết kế và sử dụng các hệ thống tự động, chúng có thể khiến dân thường và những người khác được luật pháp quốc tế bảo vệ có nguy cơ bị tổn hại lớn hơn. Điều này là do các hệ thống AI, đặc biệt là khi được sử dụng trong môi trường hỗn loạn, có thể hoạt động không thể đoán trước và có thể không nhận dạng chính xác mục tiêu và tấn công dân thường, hoặc không nhận dạng được những người tham chiến đang ở ngoài vòng chiến đấu.”
Nói rõ hơn về vấn đề này, nhà phân tích quốc phòng Wilson Jones của GlobalData lưu ý rằng vấn đề xác định tội lỗi như thế nào có thể bị đặt dấu hỏi.
“Theo luật chiến tranh hiện hành, có khái niệm về trách nhiệm chỉ huy”, ông Jones nói. “Điều này có nghĩa là một sĩ quan, tướng lĩnh hoặc nhà lãnh đạo khác phải chịu trách nhiệm pháp lý về hành động của quân đội dưới quyền chỉ huy của họ. Nếu quân đội phạm tội ác chiến tranh, sĩ quan phải chịu trách nhiệm ngay cả khi họ không ra lệnh, gánh nặng chứng minh thuộc về họ chứng minh rằng họ đã làm mọi thứ có thể để ngăn chặn tội ác chiến tranh”.
“Với các hệ thống AI, điều này làm phức tạp mọi thứ. Một kỹ thuật viên CNTT có phải chịu trách nhiệm không? Một nhà thiết kế hệ thống? Không rõ ràng. Nếu không rõ ràng, thì điều đó sẽ tạo ra mối nguy hiểm về mặt đạo đức nếu các tác nhân nghĩ rằng hành động của họ không được bảo vệ bởi các luật hiện hành”, ông Jones nhấn mạnh.
Các công ước kiểm soát vũ khí Một số hiệp định quốc tế lớn hạn chế và điều chỉnh một số cách sử dụng vũ khí. Có lệnh cấm sử dụng vũ khí hóa học, các hiệp ước không phổ biến vũ khí hạt nhân và Công ước về một số vũ khí thông thường, cấm hoặc hạn chế sử dụng các loại vũ khí cụ thể được coi là gây ra đau khổ không cần thiết hoặc không thể biện minh cho những người tham chiến hoặc ảnh hưởng đến dân thường một cách bừa bãi.
“Kiểm soát vũ khí hạt nhân đòi hỏi nhiều thập kỷ hợp tác quốc tế và các hiệp ước sau đó để có thể thực thi được”, nhà phân tích quốc phòng Wilson Jones giải thích. “Ngay cả khi đó, chúng tôi vẫn tiếp tục thử nghiệm trong khí quyển cho đến những năm 1990. Một lý do chính khiến chống phổ biến vũ khí hạt nhân thành công là vì sự hợp tác giữa Hoa Kỳ và Liên Xô trong trật tự thế giới lưỡng cực. Điều đó không còn tồn tại nữa, và công nghệ tạo ra AI đã có thể tiếp cận được với nhiều quốc gia hơn so với năng lượng nguyên tử”.
“Một hiệp ước ràng buộc sẽ phải đưa tất cả những người liên quan ngồi vào bàn để đồng ý không sử dụng một công cụ làm tăng sức mạnh quân sự của họ. Điều đó không có khả năng hiệu quả vì AI có thể cải thiện hiệu quả quân sự với chi phí tài chính và vật chất tối thiểu”.
Quan điểm địa chính trị hiện tại
Mặc dù các quốc gia tại Liên hợp quốc đã thừa nhận nhu cầu sử dụng AI một cách có trách nhiệm của quân đội , nhưng vẫn còn nhiều việc phải làm.
Laura Petrone, nhà phân tích chính tại GlobalData, nói với Army Technology: “Do không có khuôn khổ quản lý rõ ràng, những tuyên bố này phần lớn vẫn mang tính tham vọng. Không có gì ngạc nhiên khi một số quốc gia muốn giữ lại chủ quyền của riêng mình khi quyết định các vấn đề về quốc phòng trong nước và an ninh quốc gia, đặc biệt là trong bối cảnh căng thẳng địa chính trị hiện nay”.
Bà Petrone nói thêm rằng, mặc dù Đạo luật AI của EU đặt ra một số yêu cầu đối với hệ thống AI, nhưng nó không đề cập đến hệ thống AI cho mục đích quân sự.
“Tôi nghĩ rằng bất chấp sự loại trừ này, Đạo luật AI là một nỗ lực quan trọng nhằm thiết lập một khuôn khổ đã quá hạn từ lâu cho các ứng dụng AI, điều này có thể dẫn đến một mức độ nhất định về sự thống nhất của các tiêu chuẩn có liên quan trong tương lai”, bà bình luận. “Sự thống nhất này cũng sẽ rất quan trọng đối với AI trong lĩnh vực quân sự”.
Nguyễn Khánh
Nguồn: https://www.congluan.vn/moi-nguy-robot-sat-thu-ai-dang-de-doa-an-ninh-toan-cau-post304170.html