두 회사는 미국 연방 기관인 국립표준기술원(NIST) 산하 기관인 미국 AI 안전연구소와 협력할 예정이다. 이는 OpenAI의 ChatGPT 출시 이후 주요 관심사였던 AI 기술의 관리 및 감독에 있어 중요한 진전으로 여겨집니다.
미국 AI 안전 연구소 소장인 엘리자베스 켈리는 "이것은 시작일 뿐이지만 AI의 미래를 책임감 있게 관리하려는 노력에 있어 중요한 이정표입니다."라고 말했습니다.
이 협정에 따라 미국 AI 안전 연구소는 두 회사에 자사 모델의 잠재적 안전 개선 사항에 대한 피드백을 제공할 예정이며, 이는 모델이 대중에 공개되기 전과 후에 이루어질 예정입니다. 이 과정에서 연구소는 영국의 AI 안전 연구소와도 긴밀히 협력할 예정입니다.
"미국 AI 안전 연구소와의 파트너십은 광범위한 배포 전에 해당 연구소의 광범위한 전문 지식을 활용하여 모델을 엄격하게 테스트할 수 있도록 지원합니다. 이를 통해 위험을 식별하고 완화하는 역량을 강화하여 책임감 있는 AI 개발을 촉진할 수 있습니다."라고 Anthropic의 공동 창립자이자 정책 책임자인 잭 클라크는 말했습니다.
이러한 조치는 2023년에 발표될 백악관 AI 행정명령을 이행하기 위한 노력의 일환입니다. 이 행정명령은 미국에서 AI 모델을 신속하게 배포할 수 있는 법적 틀을 마련하는 것을 목표로 합니다.
그러나 연방 정부가 자발적 접근 방식을 추구하는 반면, 미국의 기술 중심지인 캘리포니아의 의원들은 8월 28일에 주 차원의 AI 안전 법안을 통과시켰습니다. 이 법안이 주지사의 서명을 받으면 AI 산업에 대한 규제가 더욱 강화될 것입니다.
OpenAI의 CEO인 샘 알트먼은 주 정부 차원보다는 국가 차원에서 AI를 규제해야 한다고 주장하며, 이를 통해 AI 분야의 연구와 혁신이 저해될 위험을 피할 수 있을 것이라고 주장했습니다.
선도적인 기술 기업과 미국 정부의 이러한 움직임은 빠르게 진화하는 AI 분야에서 혁신과 안전의 균형을 이루려는 추세를 보여줍니다.
[광고_2]
출처: https://nhandan.vn/openai-va-anthropic-chia-se-moi-nhat-ai-voi-chinh-phu-my-post827601.html
댓글 (0)