El gigante tecnológico está bajo creciente presión en Estados Unidos y Europa por las acusaciones de que sus aplicaciones están causando adicción y problemas de salud mental entre los jóvenes.
Cuando alguien recibe un mensaje de Instagram que contiene una foto de un desnudo, la imagen se difuminará automáticamente debajo de la pantalla de advertencia. Foto: Meta
La función de protección de mensajes directos de Instagram utilizará el aprendizaje automático del dispositivo para analizar si las imágenes enviadas a través del servicio contienen desnudez, dijo Meta.
Esta función estará habilitada de forma predeterminada para los usuarios menores de 18 años y Meta notificará a los adultos para alentarlos a habilitarla.
“Dado que las imágenes se analizan en el propio dispositivo, la protección contra la desnudez también funcionará en chats cifrados de extremo a extremo, donde Meta no tendrá acceso a estas imágenes, a menos que alguien decida reportarlas”, dijo la compañía.
A diferencia de las aplicaciones Messenger y WhatsApp de Meta, los mensajes directos de Instagram no están encriptados, pero la compañía dice que planea implementar el cifrado en el servicio para compartir fotografías.
Meta también dijo que está desarrollando tecnología para ayudar a identificar cuentas que puedan estar involucradas en estafas de sextorsión y está probando habilitar nuevas notificaciones para los usuarios que puedan haber interactuado con esas cuentas.
En enero, Meta dijo que ocultaría más contenido a los adolescentes en Facebook e Instagram, y agregó que esto dificultaría que los jóvenes accedan a contenido sensible como suicidio, autolesiones y trastornos alimentarios.
Treinta y tres estados de EE. UU., incluidos California y Nueva York, demandaron a Meta en octubre de 2023, alegando que la empresa tecnológica mintió repetidamente al público sobre los peligros de su plataforma. La Comisión Europea también ha pedido a Meta que proteja a los niños de contenidos ilegales y dañinos.
Mai Anh (según CNA)
[anuncio_2]
Fuente
Kommentar (0)