한국어:
AI 규제를 강화하려는 노력의 일환으로 유럽연합(EU)의 주요 의원들은 ChatGPT와 같은 생성 AI를 억제하기 위해 인공지능(AI) 규정 초안에 대한 여러 개정안에 합의했습니다.
Panasonic Connect Corporation은 일본 직원들이 AI 시스템을 사용하여 생산성을 향상하도록 도왔습니다. 사진: 니케이 아시아 |
첫 번째 완전한 법률을 기대하다
5월 11일 AI 규제 법안에 대한 결정적인 투표는 ChatGPT와 같은 AI 도구를 공식적으로 규제하는 법안을 통과시키는 과정에서 새로운 단계를 나타냈습니다. 유럽 의회(EP) 소비자 보호 및 시민 자유 위원회는 기본권을 존중하면서도 이 분야의 혁신을 촉진하고 EU 내 AI 사용을 통제할 필요성을 확인하는 초안 텍스트를 채택했습니다. 이 초안에 따르면 AI는 사람, 사회 및 환경에 도움이 되어야 합니다.
2년간의 논의 끝에 AI법은 공공장소에서 얼굴 인식 기술을 사용하는 것(EU 국가 간 갈등을 일으킬 것으로 예상됨)과 알고리즘을 사용하여 범죄 행동을 예측하는 도구, OpenAI의 ChatGPT와 같은 인공 AI 애플리케이션, 생체 인식 검사를 금지하는 조항을 추가했기 때문에 이 기술을 규제하는 최초의 완전한 EU 법률이 될 것으로 예상됩니다. 따라서 이러한 애플리케이션은 이러한 도구의 제품이 인간이 아닌 기계에 의해 생성되었다는 것을 사용자에게 상기시키는 알림을 보내야 합니다.
또한 이 문서에는 AI 적용 시 고위험 영역을 식별하기 위한 추가 기준을 요구하는 섹션이 포함되어 있어 도구 설계 범위가 제한됩니다. AI 도구는 각 도구가 초래할 수 있는 위험 수준에 따라 분류됩니다. 이러한 도구를 사용하는 정부와 기업은 위험 수준에 따라 다른 의무를 지게 됩니다.
다음 달에는 초안 텍스트가 전체 EP에 제출되어 승인을 받은 다음, EU 회원국에 검토 및 마무리 작업을 위해 전송될 예정입니다. 유럽 위원회(EC)가 제안한 목록에는 이미 중요 인프라 관리, 교육, 인적 자원, 공공 질서 및 이민 분야의 AI 활용 사례가 포함되어 있지만, EP MEP는 보안, 건강 및 기본권에 대한 위협을 구분하는 임계값을 추가하기를 원합니다.
일본이 선두를 차지할 것이다
많은 국가는 국내 산업이 뒤처지는 것을 방지하고 국민의 개인정보 보호 문제를 해결하기 위한 해결책을 모색하고 있습니다.
아시아에서는 일본 정부 최초로 인공지능 전략 협의회가 소집되어 AI 개발을 위한 프레임워크를 수립한다는 목표로 개최되었습니다. 기시다 후미오 총리는 협의회에서 "AI는 우리 경제 사회를 긍정적인 방향으로 바꿀 수 있는 잠재력을 가지고 있지만 위험도 있습니다. 두 가지 문제를 모두 적절히 해결하는 것이 중요합니다."
AI 기술을 활용하면 산업 경쟁력을 높이고 사회 문제를 해결하는 데 기여할 수 있지만, 이를 위해서는 AI를 적절히 활용해야 하며, 사용자의 위험을 최소화해야 합니다. 하지만 지금까지의 논의는 주로 기술적인 내용에 관한 것이었습니다. 일본 전문가들은 앞으로는 비즈니스, 법률 등 분야도 참여해 더 광범위한 관점에서 논의가 이루어져야 한다고 촉구했습니다. 닛케이 아시아는 일본이 직면한 과제 중 하나는 보안, 개인정보 보호, 저작권이 중요한 문제인 일반 AI의 사용 규제에 주력하면서 국내 AI 개발 수준을 어떻게 향상시킬 것인가 하는 것이라고 전했습니다.
가짜 이미지와 비디오, 로봇이 생성한 텍스트가 등장하면서 AI는 국가 안보부터 잘못된 정보까지 다양한 우려를 불러일으키면서 일상생활을 파괴하기 시작했습니다. G7(선진 7개국)의 디지털 및 기술 장관들은 올해 말까지 일반 AI의 개발 및 활용에 대한 지침을 정리하기로 합의했습니다. 일본이 2023년 G7 의장국을 맡게 됨에 따라, 기시다 총리는 일본이 인공 AI의 전망을 최대한 활용하고 위험에 대응하기 위한 국제 규칙을 제정하는 데 앞장설 것이라고 말했습니다.
일본과 마찬가지로 백악관도 지난주 1억 4천만 달러를 투자해 7개의 AI 연구 센터를 설립하고 이 첨단 기술의 사용에 대한 지침을 발표할 것이라고 발표했습니다. 그 목적은 위험을 최소화하면서도 AI 응용 혁신 개발을 방해하지 않는 규칙을 만드는 것입니다. 과학기술자문위원회에서의 연설에서 조 바이든 미국 대통령은 AI가 질병과 기후 변화와 같은 매우 어려운 과제를 해결하는 데 도움이 될 수 있지만, 사회, 경제, 국가 안보에 대한 잠재적 위험도 해결해야 한다고 강조했습니다. 기술 회사는 자사 제품을 시장에 출시하기 전에 안전성을 보장할 책임이 있습니다.
[광고2]
원천
댓글 (0)