이 기술 대기업은 자사 앱이 중독성이 있고 청소년에게 정신 건강 문제를 일으킨다는 주장으로 인해 미국과 유럽에서 점점 더 많은 압박을 받고 있습니다.
누군가 누드 사진이 포함된 인스타그램 메시지를 받으면 경고 화면 아래의 이미지가 자동으로 흐릿해집니다. 사진: 메타
메타에 따르면, 인스타그램의 다이렉트 메시지 보호 기능은 기기 내 머신 러닝을 활용해 서비스를 통해 전송된 이미지에 누드 장면이 포함되어 있는지 분석할 예정입니다.
이 기능은 18세 미만 사용자에게 기본적으로 활성화되어 있으며, Meta는 성인에게 알림을 보내 이 기능을 활성화하도록 권장합니다.
회사 측은 "이미지가 기기 자체에서 분석되기 때문에 누드 사진 보호 기능은 종단 간 암호화된 채팅에서도 작동하며, 누군가가 우리에게 보고하지 않는 한 Meta는 이러한 이미지에 접근할 수 없습니다."라고 밝혔습니다.
Meta의 Messenger 및 WhatsApp 앱과 달리 Instagram 직접 메시지는 암호화되지 않지만, 해당 회사는 사진 공유 서비스에 암호화를 도입할 계획이라고 밝혔습니다.
메타는 또한 성범죄 사기에 연루되었을 가능성이 있는 계정을 식별하는 데 도움이 되는 기술을 개발 중이며, 해당 계정과 상호 작용했을 수 있는 사용자에게 새로운 알림을 제공하는 기능을 테스트하고 있다고 밝혔습니다.
1월에 Meta는 Facebook과 Instagram에서 청소년의 콘텐츠를 더 많이 숨길 것이라고 밝혔으며, 이로 인해 청소년이 자살, 자해, 섭식 장애와 같은 민감한 콘텐츠에 접근하기가 더 어려워질 것이라고 덧붙였습니다.
캘리포니아주와 뉴욕주를 포함한 미국 33개 주는 2023년 10월 Meta를 고소하며, 이 기술 회사가 자사 플랫폼의 위험성에 대해 대중에게 반복적으로 거짓말을 했다고 주장했습니다. 유럽 위원회는 또한 Meta에 어린이를 불법적이고 유해한 콘텐츠로부터 보호해 달라고 요청했습니다.
마이안 (CNA에 따르면)
[광고_2]
원천
댓글 (0)