SGGPO
카스퍼스키는 기업 시스템의 개발 및 사용에 인공지능(AI)이나 머신러닝(ML)을 적용하기 위한 윤리 원칙을 제시하여 책임감 있고 투명하게 기술을 개발하려는 노력을 강화합니다.
카스퍼스키는 약 20년 동안 기업 솔루션에서 ML 알고리즘(AI의 하위 집합)을 사용해 왔습니다. |
사이버 보안에서 AI 알고리즘의 역할이 점점 더 중요해짐에 따라, 카스퍼스키 백서의 원칙은 기업이 AI 기술의 신뢰성을 보장하고 업계의 회사가 AI/ML 알고리즘 사용과 관련된 위험을 완화할 수 있는 방법을 설명합니다.
인공 지능과 인간의 전문 지식을 결합한 Kaspersky 솔루션은 광범위한 사이버 위협을 효과적으로 탐지하고 대처하는 데 도움이 됩니다. 그 중에서도 ML은 위협을 자동으로 감지하고 이상을 식별하는 데 중요한 역할을 하며, 맬웨어 탐지의 정확도를 향상시킵니다.
혁신을 촉진하기 위해 Kaspersky는 AI/ML의 개발 및 사용에 대한 윤리 원칙을 개발했습니다. 이러한 원칙은 AI가 더 나은 세상을 만드는 데 현명하게 사용되도록 보장하는 다자간 외교 도구로서 업계와 공개적으로 공유됩니다.
투명성 원칙은 회사가 제품과 서비스에 사용되는 AI/ML 기술에 대해 고객에게 알려야 한다는 카스퍼스키의 강력한 신념을 반영합니다. 카스퍼스키는 가능한 한 사용하기 쉬운 AI/ML 시스템을 개발하고, 솔루션의 작동 방식과 카스퍼스키가 AI/MI 기술을 활용하는 방법에 대한 정보를 이해관계자와 공유함으로써 이 원칙을 고수합니다.
카스퍼스키에 따르면 AI/ML의 개발과 사용을 용이하게 하려면 투명성, 안전성 등 6가지 원칙을 고려해야 합니다. 인간의 통제 은둔; 사이버보안 목적으로 사용하겠다는 약속 열린 대화…
[광고_2]
원천
댓글 (0)