우리는 산업혁명 4.0 시대에 살고 있으며, 인공지능(AI)은 점차 사회생활의 많은 분야에 없어서는 안 될 부분이 되고 있습니다. 대중과 사건 사이의 정보를 연결하는 미디어 역시 이러한 추세에서 벗어날 수 없습니다.
베트남 언론인 협회 저널리즘 교육 센터장인 응우옌 티 하이 반 여사가 AI 기술 워크숍에 참석했습니다. (출처: 베트남 언론인 협회) |
AI가 가져다주는 이점을 최대한 활용하려면, 커뮤니케이터는 정보 전송에 있어 신뢰성과 윤리를 보장하는 동시에 AI를 효과적으로 사용하는 데 필요한 지식을 갖춰야 합니다.
AI의 '열'로부터
오늘날 가장 인기 있는 키워드 중 하나가 AI(인공지능)라는 것은 너무나도 당연한 일입니다. 2024년 9월, 구글에서 'AI'라는 키워드로 0.3초 만에 검색한 결과 159억 개의 결과가 기록되었습니다. "AI 도구"라는 키워드로 0.4초 만에 34억개 이상의 결과가 기록됐습니다. 엄청난 숫자는 전 세계적으로 AI와 AI 기반 도구에 대한 보도 수준과 관심도를 말해줍니다.
요즘에는 미디어 산업을 포함한 다양한 분야에서 점점 더 많은 AI 도구가 등장하고 있습니다. 널리 알려진 ChatGPT 외에도 특정 방향으로 개발되어 특정 작업을 수행하는 AI 애플리케이션이 많이 있습니다. 여기에는 많은 도구를 나열하는 것은 어렵지 않습니다. 예를 들어 Bing AI, Clause, 채팅봇 작업 그룹을 위한 Zapier Central 등이 있습니다. Jasper, Copy.ai, 콘텐츠 생성 작업을 위한 Anyword 비디오 제작 및 편집 작업을 위한 Descript, Wondershare, Runway; DALL-E3, Midjourney, 창의적인 이미지 작업을 위한 안정적인 확산; Murf, 오디오 콘텐츠 작업을 위한 AIVA 등이 있고, 아주 최근에는 거대 기업 Amazon도 "창의성을 고취하고 더 많은 가치를 창출"한다는 목표로 비디오 생성기와 이미지 생성기라는 자체 개발한 AI 도구를 선보였습니다.
AI 도구는 규모와 전문화 수준이 매우 다양하지만, 이 기술은 본질적으로 두 가지 공통점을 갖습니다. AI 도구는 AI 도구를 "훈련"시키기 위한 알고리즘과 데이터를 기반으로 개발됩니다.
미디어에서의 AI 사용에 대한 윤리적 통제
AI 도구가 가져다주는 편리함은 부인할 수 없으며, 기술 업데이트의 빠른 속도로 인해 미디어 산업에서 간단한 작업부터 복잡한 작업까지 대응할 수 있는 더욱 특화된 AI 도구가 모든 곳에 등장하게 될 것입니다. 이러한 엄청난 발전과 함께 미디어 산업에서 AI 도구의 개발 및 사용에 있어서 윤리적 통제 문제에 대한 많은 의문이 제기되고 있습니다. 만약 AI 도구의 알고리즘과 데이터가 커뮤니티에 해로운 방식으로 조작된다면 어떨까요? AI 도구가 학습에 사용하는 입력 데이터에 대한 지적 재산권은 누가 소유합니까? 누가 피해 수준을 평가하는가?
동일한 작업에 대해 AI 도구에 접근할 수 있는 그룹과 접근할 수 없는 그룹 사이에 불평등이 있습니까? 특히 미디어와 소셜 네트워크와 같이 많은 사람에게 대규모로 영향을 미칠 수 있는 민감한 분야에서 AI 도구로 인한 통제 불가능한 피해의 가능성에 대한 의문이 제기되기도 했습니다.
위와 같은 우려 사항을 인식하고 많은 조직, 협회, 정부, 심지어 AI 도구를 개발하는 회사와 법인조차도 AI 기술의 윤리적 통제 문제와 관련된 권장 사항, 설명 정보, 상위 수준의 행동 강령을 발표했습니다. 2021년 193개국에서 채택된 UNESCO-유엔 교육 과학 문화 기구-인공지능 윤리 선언-권고안에서는 "인공지능(AI)의 급속한 부상은 건강 진단 지원부터 소셜 미디어를 통한 인간 연결 가능, 작업 자동화를 통한 노동 효율성 창출에 이르기까지 전 세계적으로 많은 기회를 창출했습니다.
그러나 이러한 급속한 변화는 또한 심각한 윤리적 우려를 불러일으킨다. AI와 관련된 이러한 위험은 기존의 불평등을 더욱 심화시켜 이미 불리한 집단에 더 큰 피해를 입히고 있다…”. 그리고 거기에서 "유네스코에 회원국을 지원하는 도구를 개발해 달라고 요청합니다. 여기에는 정부가 모든 시민을 위해 윤리적이고 책임감 있게 AI를 배포할 준비 상태에 대한 포괄적인 그림을 구축할 수 있는 도구인 준비성 평가 방법론이 포함됩니다.
유네스코는 글로벌 접근 방식으로 글로벌 AI 윤리 및 거버넌스 관측소를 출범시켰으며, 이는 "국가가 AI를 윤리적이고 책임감 있게 도입할 준비가 되었는지에 대한 정보를 제공한다"고 설명합니다. 이 이니셔티브는 또한 광범위한 AI 윤리 문제에 대한 기여, 영향력 있는 연구, 툴킷 및 활동적인 관행을 하나로 모으는 AI 윤리 및 거버넌스 랩을 주최합니다…”
UNESCO와 같은 글로벌 기구 외에도 많은 전문가 협회도 자체 행동 강령을 개발하기 위해 노력하고 있습니다. 예를 들어, 전 세계 수천 명의 회원이 있는 협회인 IABC(International Association of Business Communications)는 커뮤니케이션 전문가의 AI 윤리적 사용에 대한 지침을 출범시켰습니다. 이 지침은 IABC 회원들에게 IABC 윤리 강령과 AI의 관련성에 대한 지침을 제공하는 것을 목표로 합니다. 이러한 지침은 AI 기술이 발전함에 따라 시간이 지남에 따라 업데이트되고 보완될 수 있습니다. 이 행동 강령에는 커뮤니케이션 전문가가 준수해야 할 구체적인 사항이 많이 포함되어 있습니다. 예를 들어 다음과 같습니다.
"사용되는 AI 리소스는 긍정적이고 투명한 경험을 만들어 미디어 직업에 대한 존중과 신뢰를 구축하기 위해 인간 중심이어야 합니다. AI 도구로 인한 경력 기회와 위험에 대한 최신 정보를 얻는 것이 중요합니다. 정보를 정확하고, 객관적이고 공정하게 전달하는 것이 필요합니다. AI 도구는 많은 버그, 불일치, 기타 기술적 문제로 어려움을 겪을 수 있습니다. 이를 위해서는 AI가 생성한 콘텐츠가 정확하고, 투명하며, 표절이 없다는 것을 독립적으로 검증하기 위한 인간의 판단이 필요합니다.
다른 사람의 개인정보 및 비밀정보를 보호하고, 해당 사람의 허락 없이 이 정보를 사용하지 않습니다. 서비스를 제공하려는 지역 사회에 대한 인간의 참여와 이해도를 토대로 AI 결과를 평가하세요. 최선을 다해 편견을 제거하고 다른 사람들의 문화적 가치와 신념에 민감하게 대처하세요.
필요한 전문적인 엄격성을 가지고 직접 사실 확인하고 결과물을 검증하여 제3자 자료, 정보 또는 참고문헌이 정확하고, 필요한 출처 표시 및 검증이 이루어졌으며, 사용에 대한 완전한 허가 또는 승인을 받았는지 확인해야 합니다. 전문적인 작업에서 AI 사용을 숨기거나 위장하려고 하지 마세요. AI의 오픈 소스 특성과 거짓, 오해의 소지가 있거나 기만적인 정보 입력을 포함한 이와 관련된 보안 문제를 인식합니다.
AI 도구를 소유하고, 개발하고, 거래하는 회사와 법인의 경우, 그들은 다른 누구보다 AI 도구의 이면을 더 잘 이해하는 사람들입니다. 그들은 AI 도구가 작동하는 기본 알고리즘과 AI 도구가 훈련되는 데이터를 알고 있습니다. 따라서 이들 기업도 AI 개발의 윤리 원칙과 관련된 정보를 제공해야 한다. 실제로 이 문제에 관심을 갖고 있는 회사가 있습니다.
구글은 상당한 위험 요소가 있는 분야에서는 AI 도구를 개발하지 않기로 약속했으며, 이점이 위험보다 상당히 크다고 판단되고 적절한 안전 제약 조건이 통합될 때에만 개발을 진행할 것입니다. 인간에게 부상을 입히거나 직접적으로 부상을 용이하게 하는 것을 주목적으로 하거나 배치하는 무기나 기타 기술. 감시를 위해 정보를 수집하거나 사용하는 기술은 국제적으로 인정된 규범을 위반합니다. 널리 받아들여진 국제법과 인권 원칙을 위반하는 기술.
보안 및 안전 측면에서 Google은 "의도치 않은 결과로 인해 피해 위험이 발생하는 것을 방지하기 위해 강력한 보안 및 안전 조치를 계속 개발하고 구현할 것입니다."라고 약속합니다. 우리는 AI 시스템이 적절히 신중하도록 설계하고, AI 안전 연구의 모범 사례에 따라 개발되도록 노력할 것입니다. 당사는 AI 기술의 개발 및 사용에 개인정보 보호 원칙을 통합할 것입니다. 우리는 통지 및 동의에 대한 기회를 만들고, 개인 정보를 보호하는 아키텍처를 장려하며, 데이터 사용에 대한 적절한 투명성과 통제를 제공할 것입니다."
Google과 마찬가지로 Microsoft도 AI 원칙과 접근 방식에 대한 성명을 발표하면서 "우리는 AI 시스템이 책임감 있게 개발되고 사람들의 신뢰를 보장하는 방식으로 개발되도록 최선을 다하고 있습니다."라고 강조했습니다. 게다가 Amazon과 OpenAI 등 AI 도구 개발에 많은 투자를 하고 있는 대형 기술 기업들도 어떤 형태로든 이에 대한 의지를 밝혔습니다.
역사 속의 많은 사례는 기술이 양면적 성격을 가지고 있다는 것을 증명해 주었는데, 기술에는 긍정적인 요소와 부정적인 요소가 함께 존재했습니다. 결국 AI는 매우 '하이테크'한 기술 플랫폼이기는 하지만 여전히 인간이 개발하고 수집한 알고리즘과 데이터에 기반을 두고 있습니다. 동시에 대부분의 AI 제품은 이를 소유한 회사의 사업 계획의 일부입니다.
따라서 기술 측면뿐 아니라 제품 개발 및 관리 팀 측면에서도 항상 잠재적인 위험이 존재합니다. 여기서 문제는 AI 도구가 대중, 심지어 지역 사회의 사회경제적 수준에도 엄청난 영향을 미칠 수 있는 잠재적인 규모라는 것입니다. AI 기술을 사용할 때 윤리적 통제에 대한 시기적절한 관심은 유엔과 같은 대규모 국제 기구, 정부, 산업 협회, 그리고 무엇보다도 기술 개발 부서의 참여로 환영할 만한 신호입니다.
하지만 AI 도구 목록이 이전 버전보다 더욱 정교하고 복잡한 새로운 버전을 끊임없이 출시하는 것처럼 규정, 원칙 또는 지침도 시기적절하게 업데이트되고 보완되어야 하며, 더 나아가 AI 기술 전반과 특히 미디어 종사자에 대한 윤리적 통제를 준수하는 능력을 통해 최고의 효율성을 달성할 수 있는 프레임워크 내에서 제품 개발 단위와 사용자를 예방, 제한 및 통제하기 위해 적극적으로 나서야 합니다.
[광고2]
원천
댓글 (0)