베트남, 첫 번째 AI 윤리 규정 제정

인공지능(AI)은 국민, 사회, 베트남 경제에 큰 혜택을 가져다 줄 것으로 기대됩니다. 베트남은 AI를 적용하는 것과 함께 경제적, 윤리적, 법적 요소의 균형을 맞춰 AI 개발 및 활용 과정에서 위험을 최소화하기 위한 연구를 진행하고 조치를 취했습니다.

과학기술부(MOST)가 인공지능 시스템의 책임 있는 연구 개발에 대한 여러 원칙을 안내하는 일련의 문서를 발행한 이유도 여기에 있습니다.

이 지침 문서에서는 인공지능 시스템을 연구, 설계, 개발, 제공하는 과정에서 참고하고 적용할 수 있는 여러 가지 일반 원칙과 자발적 권장 사항을 제시합니다.

인공지능 시스템의 연구, 설계, 개발 및 제공에 참여하는 과학 및 기술 기관, 조직, 기업 및 개인은 이 지침 문서를 적용하는 것이 좋습니다.

W-vien-han-lam-삽화-ai-tri-tue-nhan-tao-1.jpg
2023년 베트남 국제 혁신 전시회에서 베트남 과학기술 아카데미의 로봇 모델. 사진: Trong Dat

따라서 베트남의 AI 시스템에 대한 연구 개발은 모든 사람이 인공지능의 혜택을 누리고, 혜택과 위험 간의 적절한 균형을 보장하는 인간 중심 사회를 향해 나아가는 근본적인 관점을 기반으로 해야 합니다.

베트남의 AI 시스템에 대한 연구 개발 활동은 기술적 중립성을 보장하는 것을 목표로 합니다. 모든 경우에 있어서 과학기술부는 관련 당사자의 참여를 통한 교류와 논의를 장려합니다. 원칙과 지침은 실제 상황에 맞게 계속해서 연구되고 업데이트될 것입니다.

과학기술부는 이 문서 세트의 탄생은 베트남에서 안전하고 책임감 있는 방식으로 인공지능의 연구, 개발 및 활용에 대한 관심을 촉진하고, 사람과 지역 사회에 부정적인 영향을 최소화하는 것을 목표로 한다고 밝혔습니다. 이를 통해 AI에 대한 사용자와 사회적 신뢰가 높아지고, 베트남 내 인공지능 연구 개발이 촉진될 것입니다.

책임 있는 AI 개발을 위한 원칙

이 문서에서는 개발자들에게 인공지능 시스템의 연결 및 상호작용을 통해 혁신을 촉진하고 협업 정신을 보여주도록 권장하고 있습니다. 개발자는 AI 시스템의 입력/출력을 제어하고 관련 분석을 설명하는 능력을 갖추어 투명성을 보장해야 합니다.

개발자는 인공지능 시스템을 제어하고, 사전에 관련 위험을 평가할 수 있는 능력에 주의를 기울여야 합니다. 위험성 평가 방법 중 하나는 실제 사용에 앞서 실험실이나 보안 및 안전이 보장되는 환경과 같은 별도의 공간에서 테스트를 수행하는 것입니다.

또한, AI 시스템의 제어 가능성을 보장하기 위해 개발자는 시스템 모니터링(평가/모니터링 도구 사용 또는 사용자 피드백을 기반으로 한 수정/업데이트)과 인간이나 신뢰할 수 있는 AI 시스템이 수행하는 대응 조치(시스템 종료, 네트워크 종료 등)에 주의를 기울여야 합니다.

AI AI 로봇 아난 3.jpg
한 젊은이가 베트남 엔지니어들이 개발한 인공지능 '로봇' 아난에게 질문을 하고 있다. 사진: Trong Dat

개발자는 인공지능 시스템이 중개자를 통한 경우를 포함하여 사용자나 제3자의 생명, 신체, 재산에 해를 끼치지 않도록 보장해야 합니다. 인공지능 시스템의 보안성, 신뢰성, 물리적 공격이나 사고에 대한 내구성에 주의를 기울여야 합니다. AI 시스템이 사용자 또는 제3자의 개인 정보를 침해하지 않도록 하는 것이 필요합니다. 원칙에서 언급하는 개인정보보호권에는 공간적 개인정보보호(개인생활에 대한 마음의 평화), 정보적 개인정보보호(개인정보) 및 통신의 비밀보장 등이 포함됩니다.

인공지능 시스템을 개발할 때 개발자는 인권과 존엄성을 존중하는 데 특별한 주의를 기울여야 합니다. 가능한 한, 적용되는 기술의 특성에 따라 개발자는 훈련 데이터의 편향(선입견)으로 인해 차별이나 불공정성이 발생하지 않도록 조치를 취해야 합니다. 그뿐만 아니라 개발자는 이해관계자에 대한 책임을 다하고 사용자를 지원해야 합니다.

4.0시대의 저널리즘은 AI '고속열차'를 놓치지 말아야 한다 . 언론인들은 AI에 주저하고 두려워하기보다는, 적극적으로 인공지능을 뉴스룸 운영에 도입해야 합니다.