Vietnam.vn - Nền tảng quảng bá Việt Nam

AI 기술을 활용할 때 미디어 종사자의 윤리

Báo Quốc TếBáo Quốc Tế27/10/2024

우리는 4.0 기술 혁명 시대에 살고 있으며, 인공지능(AI)은 점차 사회생활의 많은 분야에서 없어서는 안 될 부분이 되어가고 있습니다. 대중과 사건 사이의 정보를 연결하는 미디어 역시 이러한 추세에서 벗어날 수 없습니다.


Đạo đức của người làm truyền thông khi sử dụng công nghệ AI
AI 기술 워크숍에 참석한 베트남 언론인 협회 저널리즘 교육 센터 소장 응우옌 티 하이 반 여사. (출처: 베트남 언론인 협회)

AI가 가져다주는 이점을 최대한 활용하려면, 커뮤니케이터는 정보 전송에 있어 신뢰성과 윤리를 보장하는 동시에 AI를 효과적으로 사용할 수 있는 지식을 갖춰야 합니다.

AI의 '열'로부터

오늘날 가장 인기 있는 키워드 중 하나가 AI(인공지능)라는 것은 너무나 자명한 사실입니다. 2024년 9월, 구글에서 'AI'라는 키워드로 0.3초 만에 검색한 결과 159억 개의 결과가 나왔습니다. "AI 도구"라는 키워드로 0.4초 만에 34억 개 이상의 결과가 기록됐습니다. 엄청난 숫자는 전 세계적으로 AI와 AI 기반 도구에 대한 관심과 적용 범위가 얼마나 넓은지를 말해줍니다.

요즘에는 미디어 산업을 포함한 다양한 분야에서 점점 더 많은 AI 도구가 등장하고 있습니다. 널리 알려진 ChatGPT 외에도, 특정 방향으로 개발되어 특정 작업을 수행하는 AI 애플리케이션이 많이 있습니다. 여기에는 많은 도구를 나열하는 것은 어렵지 않습니다. 예를 들어 Bing AI, Clause, 채팅봇 작업 그룹을 위한 Zapier Central 등이 있습니다. Jasper, Copy.ai, Anyword는 콘텐츠 생성 작업에 사용됩니다. 설명, Wondershare, Runway는 비디오 제작 및 편집 작업을 위한 것입니다. DALL-E3, Midjourney, 창의적인 이미지 작업을 위한 안정적인 확산; Murf, 오디오 콘텐츠 작업을 위한 AIVA 등이 있고, 아주 최근에는 거대 기업인 Amazon도 "창의성을 고취하고 더 많은 가치를 창출한다"는 목표로 비디오 생성기와 이미지 생성기라는 자체 개발한 AI 도구를 선보였습니다.

AI 도구는 규모와 전문화 수준이 매우 다양하지만, 이 기술은 본질적으로 두 가지 공통점을 가지고 있습니다. AI 도구는 AI 도구를 "훈련"시키기 위한 알고리즘과 데이터를 기반으로 개발됩니다.

미디어에서 AI 사용에 대한 윤리적 통제

AI 도구가 가져다주는 편리함은 부인할 수 없으며, 기술 업데이트의 빠른 속도로 인해 미디어 산업에서 간단한 작업부터 복잡한 작업까지 대응할 수 있는 더욱 전문화된 AI 도구가 모든 곳에 등장하게 될 것입니다. 이러한 엄청난 발전과 함께 미디어 산업에서 AI 도구의 개발 및 사용에 대한 윤리적 통제 문제에 대한 많은 의문이 제기되고 있습니다. 만약 AI 도구의 알고리즘과 데이터가 커뮤니티에 해로운 방식으로 조작된다면 어떨까요? AI 도구가 학습에 사용하는 입력 데이터에 대한 지적 재산권은 누가 소유합니까? 누가 피해 수준을 평가하는가?

동일한 작업에 대해 AI 도구에 접근할 수 있는 그룹과 접근할 수 없는 그룹 사이에 불평등이 있습니까? 특히 미디어와 소셜 네트워크 등 많은 사람에게 대규모로 영향을 미칠 수 있는 민감한 분야에서 AI 도구로 인한 통제 불가능한 피해 가능성에 대한 의문이 제기되기도 했습니다.

위의 우려 사항을 인식하고, AI 도구를 개발하는 많은 조직, 협회, 정부, 심지어 회사와 법인까지도 AI 기술의 윤리적 통제 문제와 관련된 권장 사항, 설명 정보, 더 높은 수준의 행동 강령을 발표했습니다. 2021년 193개국에서 채택된 유네스코(유엔 교육과학문화기구)의 인공지능 윤리 선언문 권고안에서는 "인공지능(AI)의 급속한 발전으로 건강 진단 지원부터 소셜 미디어를 통한 인간 연결, 업무 자동화를 통한 노동 효율성 창출까지 전 세계적으로 많은 기회가 창출되었습니다.

그러나 이러한 급격한 변화는 심각한 윤리적 우려를 불러일으킨다. AI와 관련된 이러한 위험은 기존의 불평등을 심화시켜 이미 소외된 계층에게 더 큰 피해를 입히고 있습니다…”. 또한, “유네스코에 회원국을 지원하는 도구, 즉 각국 정부가 모든 시민을 위해 윤리적이고 책임감 있게 AI를 도입할 준비 상태를 종합적으로 파악할 수 있는 도구인 준비성 평가 방법론을 개발해 줄 것을 요청합니다.

유네스코는 이러한 글로벌 접근 방식의 일환으로 글로벌 AI 윤리 및 거버넌스 관측소(Global AI Ethics and Governance Observatory)를 출범시켰습니다. 이 관측소는 "각국의 AI 윤리 및 책임감 있는 도입 준비도에 대한 정보를 제공합니다."라고 설명하며, "AI 윤리 및 거버넌스 랩(AI Ethics and Governance Lab)"도 운영하고 있습니다. 이 랩은 다양한 AI 윤리 문제에 대한 기여, 영향력 있는 연구, 툴킷, 그리고 긍정적인 실천 사례를 모아…

UNESCO와 같은 글로벌 조직 외에도 많은 전문가 협회도 자체 행동 강령을 개발하기 위해 노력하고 있습니다. 예를 들어, 전 세계 수천 명의 회원이 있는 협회인 IABC(국제 비즈니스 커뮤니케이션 협회)는 커뮤니케이션 전문가의 AI 윤리적 사용에 대한 지침을 출시했습니다. 이 지침은 IABC 회원들에게 IABC 윤리 강령과 AI의 관련성에 대한 지침을 제공하는 것을 목표로 합니다. 이러한 가이드라인은 AI 기술이 발전함에 따라 시간이 지남에 따라 업데이트되고 보완될 수 있습니다. 이 행동 강령에는 커뮤니케이션 전문가가 준수해야 할 구체적인 사항이 많이 포함되어 있습니다. 예를 들어,

긍정적이고 투명한 경험을 창출하여 미디어 업계에 대한 존중과 신뢰를 구축하기 위해서는 AI 리소스가 인간 중심적이어야 합니다. AI 도구가 제공하는 전문적인 기회와 위험에 대해 지속적으로 정보를 얻는 것이 중요합니다. 정보를 정확하고 객관적이며 공정하게 전달하는 것도 중요합니다. AI 도구는 많은 오류, 불일치 및 기타 기술적 문제에 노출될 수 있습니다. 따라서 AI가 생성한 콘텐츠의 정확성, 투명성, 그리고 표절 여부를 독립적으로 검증하기 위해서는 인간의 판단력이 필요합니다.

다른 사람의 개인정보 및 기밀정보를 보호하고, 그 허가 없이 해당 정보를 사용하지 않습니다. 서비스를 제공하고자 하는 지역 사회에 대한 인간의 참여와 이해를 바탕으로 AI 결과를 평가하세요. 최선을 다해 편견을 없애고 다른 사람들의 문화적 가치와 신념에 민감하게 반응하세요.

제3자 자료, 정보 또는 참고문헌이 정확하고, 필요한 출처 표시 및 검증이 이루어졌으며, 사용에 대한 완전한 허가 또는 승인이 있는지 확인하기 위해 필요한 전문적인 엄격성을 가지고 자체 산출물에 대한 사실 확인 및 검증을 독립적으로 수행해야 합니다. 전문적인 결과물에서 AI의 사용을 숨기거나 위장하려고 하지 마세요. AI의 오픈 소스 특성과 거짓, 오해의 소지가 있거나 기만적인 정보의 입력을 포함하여 이와 관련된 보안 문제를 인식합니다.

AI 도구를 소유하고 개발하고 거래하는 회사와 법인의 경우, 이들은 다른 누구보다 AI 도구의 내부 사정을 잘 이해하고 있습니다. 그들은 AI 도구가 작동하는 기본 알고리즘과 AI 도구를 훈련하는 데 사용되는 데이터를 알고 있습니다. 따라서 이러한 회사도 AI 개발의 윤리 원칙과 관련된 정보를 제공해야 합니다. 실제로 이 문제에 관심을 갖는 회사가 있습니다.

Google은 상당한 위험 요소가 있는 분야에서는 AI 도구를 개발하지 않기로 약속했으며, 이점이 위험보다 훨씬 더 크다고 판단되고 적절한 안전 제약 조건이 통합될 때에만 개발을 진행할 것입니다. 주된 목적이나 배치가 인간에게 상해를 입히거나 직접적으로 이를 조장하는 무기나 기타 기술입니다. 감시를 위해 정보를 수집하거나 사용하는 기술은 국제적으로 인정된 규범을 위반합니다. 널리 받아들여진 국제법과 인권 원칙을 침해하려는 기술입니다.

보안 및 안전 측면에서 구글은 다음과 같이 약속합니다. "의도치 않은 결과로 인한 피해 위험을 방지하기 위해 강력한 보안 및 안전 조치를 지속적으로 개발하고 구현할 것입니다. AI 시스템을 적절히 신중하게 설계하고 AI 안전 연구 모범 사례에 따라 개발하기 위해 노력할 것입니다. 또한, AI 기술 개발 및 사용에 개인정보 보호 원칙을 반영할 것입니다. 고지 및 동의 기회를 제공하고, 개인정보 보호 아키텍처를 장려하며, 데이터 사용에 대한 적절한 투명성과 통제를 제공할 것입니다."

Google과 마찬가지로 Microsoft도 AI 원칙 및 접근 방식에 대한 성명을 발표하면서 "우리는 AI 시스템이 책임감 있게 개발되고 사람들의 신뢰를 보장하는 방식으로 개발되도록 최선을 다하고 있습니다..."라고 강조했습니다. 또한 Amazon과 OpenAI 등 AI 도구 개발에 많은 투자를 하고 있는 대형 기술 회사들도 어떤 식으로든 이에 대한 의지를 밝혔습니다.

역사 속의 많은 사례는 기술이 양면적인 성격을 가지고 있다는 것을 보여주었습니다. 즉, 긍정적인 요소와 부정적인 요소가 함께 존재하는 것입니다. 결국, AI는 매우 '하이테크'한 기술 플랫폼이기는 하지만, 여전히 인간이 개발하고 수집한 알고리즘과 데이터에 기반을 두고 있습니다. 동시에, 대부분의 AI 제품은 이를 소유한 회사의 사업 계획의 일부입니다.

그러므로 기술적인 측면뿐 아니라 제품 개발 및 관리 팀에서도 항상 잠재적인 위험이 존재합니다. 여기서 문제는 AI 도구가 대중, 심지어 지역 사회의 사회경제적 수준에도 미칠 수 있는 잠재적으로 엄청난 규모의 영향이라는 것입니다. AI 기술을 사용할 때 윤리적 통제에 대한 적절한 관심은 유엔과 같은 대규모 국제 기구, 정부, 산업 협회, 그리고 무엇보다도 기술 개발 부서의 참여로 환영할 만한 신호입니다.

그러나 AI 도구 목록이 이전 버전보다 더욱 정교하고 복잡한 새로운 버전을 끊임없이 출시하는 것처럼 규정, 원칙 또는 지침도 시기적절하게 업데이트되고 보완되어야 하며, 더 나아가 AI 기술 전반과 특히 미디어 종사자의 윤리적 통제를 준수하는 능력을 최대한 발휘할 수 있는 프레임워크 내에서 제품 개발 단위와 사용자를 예방, 제한 및 통제하기 위해 적극적으로 나서야 합니다.


[광고_2]
원천

댓글 (0)

No data
No data

같은 태그

같은 카테고리

호치민시 주민들이 헬리콥터에서 국기 게양을 열렬히 지켜보고 있다.
이번 여름, 햇살 가득한 해변을 갖춘 다낭이 여러분을 기다리고 있습니다.
호치민 시 하늘에 당기와 국기를 게양하고 비행하도록 훈련된 헬리콥터
4월 30일 연휴 앞두고 '애국적인 아기' 열풍, 소셜 네트워크 확산

같은 저자

유산

수치

사업

No videos available

소식

정치 체제

현지의

제품