"Frontier AI Framework" 문서는 Meta가 출시하지 않는 것으로 간주하는 두 가지 유형의 AI 시스템, 즉 "고위험"과 "심각한 위험"을 식별합니다. 이는 모회사인 페이스북이 AI 기술에 더욱 신중하다는 것을 보여준다.

이전에 CEO 마크 주커버그는 인공 일반 지능(AGI)을 일반화하겠다고 약속했습니다.

딥시크 테크크런치
메타는 위험성이 너무 높아 출시되지 않을 수 있는 두 가지 유형의 AI 시스템을 식별했습니다. 사진: TechCrunch

Meta의 정의에 따르면, "고위험" 및 "심각한 위험" 시스템 모두 사이버, 생물학 및 화학 공격을 지원할 수 있지만, 차이점은 "심각한 위험" 시스템이 "완화되지 않은 재앙적 결과"를 초래한다는 것입니다.

메타는 잘 보호되는 기업 환경에 자동으로 침투하거나, 영향력이 큰 생물학 무기를 확산하는 등 여러 가지 시나리오를 제시합니다.

이는 회사가 강력한 AI 시스템의 출시로 발생할 수 있다고 믿는 "가장 시급한" 시나리오입니다.

시스템 분류는 경험적 테스트를 기반으로 하지 않고 내부 및 외부 전문가의 의견을 바탕으로 이루어집니다.

시스템이 "고위험"으로 판단되면 Meta는 시스템에 대한 액세스를 내부적으로 제한하고 위험을 중간 수준으로 줄이기 위한 완화 조치가 마련될 때까지 시스템을 시작하지 않습니다.

반면, 시스템이 "중대한 위험"으로 식별되면 Meta는 지정되지 않은 보호 기능을 적용하여 시스템이 손상되는 것을 방지하고 위험성이 낮아질 때까지 개발을 중단합니다.

TechCrunch에 따르면, Frontier AI Framework는 Meta의 시스템 개발에 대한 개방적인 접근 방식을 향한 비판을 달래기 위한 것으로 보입니다.

Meta는 OpenAI처럼 폐쇄적이지 않고, 종종 AI 기술 소스 코드를 공개합니다. 기업의 입장에서 개방적인 접근 방식은 장점과 단점을 모두 가지고 있습니다. 이 회사의 Llama AI 모델은 수억 번 다운로드됐지만, Llama는 미국에 적대적인 챗봇을 개발하는 데 악용됐다는 소문도 있습니다.

Meta는 Frontier AI Framework를 발표함으로써 현재 가장 유명한 중국 AI 스타트업인 DeepSeek을 타겟으로 삼을 수도 있습니다. DeepSeek도 오픈소스 AI 전략을 추구하지만 보호 장치가 많지 않고 악의적인 출력을 생성하도록 쉽게 조작될 수 있습니다.

메타에 따르면, 고급 AI를 개발하고 적용하는 방법에 대한 결정을 내릴 때 장단점을 고려할 때, 해당 기술은 사회에 이익을 제공하고 적절한 수준의 위험을 유지하는 방식으로 사회에 기여할 수 있습니다.

(TechCrunch에 따르면)