AI 통제력 상실의 위험성
인류는 지평선에 나타난 유령을 무시하고 있는 것 같습니다. 이는 인공지능(AI)으로 인한 세계 핵전쟁의 유령이다. 유엔 사무총장 안토니우 구테흐스는 이에 대해 경고했습니다. 그러나 지금까지 핵무장국들은 이 치명적인 위협을 협상하기 위해 뭉치지 못했습니다.
인공지능(AI)의 급속한 발전으로 인해 AI가 핵무기 발사 과정에 개입할 위험이 커졌습니다. 삽화
미국, 러시아, 중국, 영국, 프랑스 등 5대 핵 강국은 오랫동안 "인간이 핵심 참여자"라는 원칙에 대해 비공식적인 합의를 이루어 왔습니다. 이는 각 국가가 핵무기 발사 결정에 인간이 참여할 수 있는 시스템을 갖추어야 한다는 것을 의미합니다.
5대 강대국 중 어느 누구도 핵발사 지휘 체계에 AI를 배치한다고 밝히지 않았습니다. 뭄바이(인도)에 있는 국제 연구 기관인 Strategic Foresight Group의 회장인 Sundeep Waslekar 박사에 따르면 이는 사실이지만 오해의 소지가 있습니다.
AI는 이미 위협 탐지와 대상 선택에 사용되고 있습니다. AI 기반 시스템은 센서, 위성, 레이더로부터 수집된 엄청난 양의 데이터를 실시간으로 분석하고, 들어오는 미사일 공격을 분석하여 대응 옵션을 제안합니다.
그런 다음 운영자는 다양한 출처의 위협을 교차 확인하고 적의 미사일을 요격할지, 보복 공격을 개시할지 결정합니다.
"현재 운영자에게 제공되는 응답 시간은 10~15분입니다. 2030년까지는 5~7분으로 단축될 것입니다."라고 Sundeep Waslekar가 말했습니다. "인간이 최종 결정을 내리겠지만, AI의 예측 및 처방적 분석에 영향을 받을 것입니다. AI는 2030년대 초반에 출시 결정의 원동력이 될 수 있습니다."
문제는 AI가 실수를 할 수 있다는 것이다. 위협 탐지 알고리즘은 미사일 공격이 존재하지 않더라도 미사일 공격이 있다고 표시할 수 있습니다. 컴퓨터 오류, 네트워크 침입 또는 신호를 가리는 환경적 요인이 원인일 수 있습니다. 운영자가 2~3분 내에 다른 출처에서 온 거짓 경보를 확인하지 못하면 보복 공격이 발생할 수 있습니다.
아주 작은 오류, 엄청난 재앙
범죄 예측, 얼굴 인식, 암 진단 등 많은 민간 부문에서 AI를 활용할 경우 오차 범위가 10%에 달하는 것으로 알려져 있습니다. 선딥 와슬레카 씨에 따르면, 핵 조기 경보 시스템에서 오차 한계는 약 5%가 될 수 있습니다.
향후 10년 동안 이미지 인식 알고리즘의 정확도가 향상되면 이 오차 한계는 1~2%로 떨어질 수 있습니다. 하지만 1%의 오차만 있어도 세계 핵전쟁이 일어날 수 있습니다.
AI의 오류로 인해 핵 공격이나 보복 결정이 내려질 수 있습니다. 사진: Modern War Institute
새로운 악성 프로그램이 위협 탐지 시스템을 우회할 수 있게 되면서 향후 2~3년 내에 위험이 더 커질 수 있습니다. 맬웨어는 감지되지 않도록 적응하여 자동으로 대상을 식별하고 자동으로 공격합니다.
냉전 동안에는 몇 가지 '위험한 정책' 상황이 있었습니다. 1983년, 소련의 위성이 실수로 미국이 발사한 미사일 5개를 감지했습니다. 러시아 세푸코프-15 사령부 소속의 스타니슬라프 페트로프 장교는 이것이 허위 경보라고 결론 내리고 상관들에게 경고하여 반격을 개시하도록 하지 않았다.
1995년, 올레네고르스크 레이더 기지는 노르웨이 해안에서 미사일 공격을 감지했습니다. 러시아의 전략군은 최고 경계 태세에 돌입했고 당시 러시아 대통령 보리스 옐친에게 핵 가방이 건네졌습니다. 그는 그것이 실수였을 것이라고 의심하여 버튼을 누르지 않았습니다. 그것은 과학 로켓이었던 것으로 밝혀졌습니다. 두 상황 모두에 대한 대응을 결정하는 데 AI를 사용한다면 그 결과는 재앙이 될 수 있습니다.
현재 초음속 미사일은 AI 대신 기존의 자동화를 사용합니다. 그들은 마하 5에서 마하 25의 속도로 비행하면서 레이더 감지를 피하고 비행 경로를 제어할 수 있습니다. 초강대국들은 AI를 탑재한 초음속 미사일을 개량하여, 이동 표적을 즉시 찾아내 파괴할 계획이며, 살상 결정권은 인간에서 기계로 옮겨갈 것입니다.
인간의 통제를 벗어나 작동할 수 있는 AI 모델이 등장할 수 있는 일반 인공지능을 개발하려는 경쟁도 있습니다. 이런 일이 일어나면 AI 시스템은 스스로를 강화하고 복제하는 법을 배우게 되며, 의사 결정 과정을 스스로 맡게 됩니다. 이러한 AI가 핵무기를 위한 의사결정 지원 시스템에 통합되면, 기계는 파괴적인 전쟁을 일으킬 수 있게 될 것입니다.
행동할 시간이다
위와 같은 위험에 직면하여 많은 전문가들은 인류에게 핵전쟁의 위험을 최소화하기 위한 주요 강대국 간의 포괄적 합의가 필요하다고 생각하며, 단순히 "인간이 루프에 들어간다"는 구호를 반복하는 것을 넘어서야 한다고 주장합니다.
이 협정에는 투명성, 책임성, 협력에 대한 조치가 포함되어야 합니다. 시험 및 평가를 위한 국제 표준 위기 커뮤니케이션 채널 국가 감독 위원회 인간 운영자를 우회할 수 있는 공격적인 AI 모델을 금지하는 규칙.
안토니우 구테흐스 사무총장이 1945년 원자폭탄에 맞은 히로시마에서 열린 평화 추모식에 참석하고 있다. 사진: 유엔
지정학적 변화로 인해 그러한 조약을 체결할 수 있는 기회가 생겨나고 있습니다. 예를 들어, 중국과 미국의 주요 AI 전문가들은 AI 위험에 대한 여러 차례 트랙2 대화에 참여했으며, 작년 11월 조 바이든 전 미국 대통령과 시진핑 중국 국가주석이 공동 성명을 발표하는 계기가 되었습니다.
Sundeep Waslekar 박사에 따르면, 억만장자 Elon Musk는 AI가 제기하는 실존적 위험으로부터 인류를 구해야 한다는 필요성을 강력히 주장합니다. 머스크 씨는 도널드 트럼프 현 미국 대통령에게 조 바이든 씨와 시진핑 씨의 공동 성명을 조약으로 전환하라고 촉구할 수도 있습니다.
Sundeep Waslekar 박사에 따르면, 핵 AI 과제에는 러시아의 참여도 필요합니다. 올해 1월까지 러시아는 우크라이나 문제가 논의되지 않는 한 AI와의 융합을 포함한 모든 핵 위험 감소 조치에 대해 논의하기를 거부했습니다.
도널드 트럼프 대통령이 블라디미르 푸틴 러시아 대통령과 양자 관계를 개선하고 우크라이나 전쟁을 종식시키기 위한 대화에 나서면서 러시아도 이제 논의에 개방적인 입장을 취할 가능성이 있습니다.
올해 2월, JD 밴스 미국 부통령이 파리 AI 액션 서밋에서 연설한 데 이어, 새로운 미국 안보 센터(CNAS)도 "AI 종말 예방: 핵무기와 인공지능을 중심으로 한 미국-중국-러시아 경쟁"이라는 제목의 보고서를 발표했습니다.
보고서는 AI와 핵 분야의 가장 중요한 위험을 파악하고, 미국 행정부가 중국과 러시아와 함께 포괄적인 위험 완화 및 위기 관리 메커니즘을 구축할 것을 촉구했습니다.
앞서 지난해 9월 미국을 포함한 60여 개국이 한국 서울에서 개최된 '군 내 책임 있는 AI(REAIM) 정상회의'에서 군 내 AI의 책임 있는 활용을 관리하기 위한 '행동 계획'을 채택한 바 있다. 이번 회의는 작년 헤이그에서 열린 회의에 이어 두 번째입니다. 이러한 움직임은 AI가 일으키는 핵전쟁의 위험이 공상과학에 불과하지 않다는 것을 보여줍니다.
세계는 분명히 점점 더 시급해지는 실존적 문제에 직면해 있으며, 핵 보유국이 "핵무기 사용에 대한 모든 결정은 기계나 알고리즘이 아닌 사람에 의해 내려져야 한다"는 것을 보장하기 위한 실질적인 조치를 취해야 합니다. 이는 유엔 사무총장 안토니우 구테흐스가 촉구한 바와 같습니다.
응웬 칸
댓글 (0)