최근 공개된 AI(인공지능) 원칙 업데이트에서 Google 모회사인 Alphabet은 미래에 AI를 어떻게 활용할 것인지에 대해 설명했습니다. 특히, AI를 사용하여 무기, 감시 도구 또는 "공통적인 피해를 일으킬 수 있는 기술"을 개발하지 않겠다는 약속이 삭제되었습니다.
AI에 대한 구글의 레드라인
구글의 AI 레드라인이라는 용어는 2018년에 처음 등장했는데, 당시 회사 직원들이 미국 국방부와 협력한 Maven AI 프로젝트에 항의했을 때였습니다. 당시 4,000명이 넘는 구글 직원이 이 프로젝트를 종료하는 청원서에 서명했고, 회사에 "전쟁을 위한 기술을 결코 만들지 말 것"을 요청했습니다.
그 후 구글은 펜타곤을 위한 AI 도구를 개발한다는 계약을 갱신하지 않았습니다. 이 회사는 또한 국제적으로 수용된 규범을 위반하는 감시를 위해 정보를 수집하거나 사용하는 무기 및 기술을 포함하여 AI와 관련된 "비합법적 적용"을 선언하며 빨간 선을 그었습니다. 공공에 피해를 입히거나 입힐 가능성이 있는 기술, 일반적으로 받아들여지는 국제법과 인권 원칙을 위반하는 기술도 Google에서 사용되지 않습니다.
iPhone의 일부 Google 앱
AI에 무기를 공급하는 것에 한계를 긋는 결정으로 인해 구글은 Amazon과 Microsoft를 포함한 다른 기술 대기업이 체결한 군사 협정에 참여하지 못했습니다.
하지만 AI 경쟁에 큰 변화가 생기면서 구글은 약속을 철회하기로 결정했습니다. 이는 구글 내부에서만 많은 논란을 불러일으킨 것이 아니라, 실리콘 밸리 기술 기업이 방위 산업에 중요한 변화를 겪고 있음을 보여줍니다.
구글은 내부적으로 분열되어 있습니다
Business Insider 에 따르면, AI 원칙과 윤리에 대한 업데이트로 인해 Google 직원들의 강력한 항의가 촉발되었습니다. 회사 직원들은 내부 게시판을 통해 불만을 표했다. 구글 검색 엔진에 "무기 계약자가 되는 방법?"이라는 질문을 검색하는 CEO 순다르 피차이의 모습을 묘사한 밈 많은 주목을 받다
다른 직원은 "무기와 감시에 대한 AI 금지를 해제한 우리가 나쁜 놈들인가요?"라고 묻는 밈을 만들었습니다. 현재 이 회사는 18만 명이 넘는 직원을 보유하고 있습니다. Google이 미국 정부와 군대 및 방위 고객과 더욱 긴밀히 협력하기로 한 결정을 지지하는 목소리가 여전히 많을 수 있습니다.
구글의 추론
구글 대변인은 아직 "AI 약속" 철회에 대해 공식적으로 언급하지 않았습니다. 하지만 AI 책임자 데미스 하사비스는 가이드라인이 불안정한 세상에서 진화하고 있으며 AI가 "국가 안보를 보호할 것"이라고 말했습니다.
하사비스와 구글의 기술 및 사회 담당 수석 부사장인 제임스 마니카는 회사 블로그 게시물에서 AI 분야에서 선두를 차지하기 위한 글로벌 경쟁이 치열해짐에 따라 구글은 AI가 자유, 평등, 인권 존중에 따라야 한다고 생각한다고 밝혔습니다.
"우리는 기업, 정부, 조직이 가치를 공유하고 사람들을 보호하고, 세계적 성장을 촉진하고, 국가 안보를 지원할 수 있는 AI를 만들기 위해 함께 노력해야 한다고 믿습니다."라고 그들은 덧붙였습니다.
구글의 임원 2명은 수십억 명의 사람들이 일상생활에서 AI를 사용하고 있다고 말했습니다. 인공지능은 다재다능한 기술이 되었으며, 수많은 조직과 개인이 애플리케이션을 구축하는 데 사용하는 플랫폼이 되었습니다. AI는 실험실 내의 틈새 연구 주제에서 벗어나 휴대전화와 인터넷처럼 보편적인 기술로 전환되었습니다. 따라서 2018년 구글의 'AI 선서'도 이에 맞춰 업데이트될 필요가 있다.
알파벳은 내년에 750억 달러를 지출할 계획이며, 이는 주로 AI 역량과 인프라를 구축하는 데 사용될 것이라고 밝혔습니다.
[광고2]
출처: https://thanhnien.vn/google-rut-lai-loi-hua-khong-dung-ai-cho-quan-su-185250206161804981.htm
Comment (0)