El banco más grande de Estados Unidos, JPMorgan Chase, Amazon y la empresa de tecnología Accenture han restringido el uso de ChatGPT a sus empleados debido a preocupaciones sobre la seguridad de los datos.
Según CNN, las preocupaciones de estas empresas están completamente justificadas. El 20 de marzo, el chatbot de OpenAI falló y expuso datos de los usuarios. Si bien el error se solucionó rápidamente, la compañía reveló que el problema afectó al 1,2% de los usuarios de ChatGPT Plus. La información filtrada incluye nombres completos, direcciones de correo electrónico, direcciones de facturación, los últimos cuatro dígitos de los números de tarjetas de crédito y las fechas de vencimiento de las tarjetas.
El 31 de marzo, la autoridad de protección de datos de Italia (Garante) emitió una prohibición temporal de ChatGPT citando preocupaciones sobre la privacidad después de que OpenAI revelara la vulnerabilidad.
Mark McCreary, copresidente de seguridad de datos y privacidad del bufete de abogados Fox Rothschild LLP, dijo a CNN que las preocupaciones de seguridad que rodean a ChatGPT no son exageradas. Comparó el chatbot de inteligencia artificial con "una caja negra".
ChatGPT fue lanzado por OpenAI en noviembre de 2022 y rápidamente atrajo la atención gracias a su capacidad de escribir ensayos, componer historias o letras dando comandos (prompt). Gigantes tecnológicos como Google y Microsoft también han lanzado herramientas de IA que funcionan de manera similar, impulsadas por grandes modelos de lenguaje entrenados en grandes cantidades de datos en línea.
Tras la decisión de Italia, Alemania también está considerando prohibir ChatGPT
Cuando los usuarios ingresan información en estas herramientas, no saben cómo se utilizará después, añadió McCreay. Esto es preocupante para las empresas, ya que cada vez más empleados utilizan herramientas para ayudar a escribir correos electrónicos de trabajo o tomar notas para reuniones, lo que genera un mayor riesgo de exponer secretos comerciales.
Steve Mills, director de ética de IA en Boston Consulting Group (BCG), dijo que las empresas están preocupadas por que los empleados revelen accidentalmente información confidencial. Si los datos que las personas ingresan se utilizan para entrenar esta herramienta de IA, entonces han perdido el control de los datos ante otra persona.
Según la política de privacidad de OpenAI, la empresa puede recopilar toda la información y los datos personales de los usuarios del servicio para mejorar los modelos de IA. Pueden utilizar esta información para mejorar o analizar sus servicios, realizar investigaciones, comunicarse con los usuarios y desarrollar nuevos programas y servicios.
La política de privacidad establece que OpenAI puede proporcionar información personal a terceros sin notificar a los usuarios, a menos que lo requiera la ley. OpenAI también tiene su propio documento de Términos de Servicio, pero la empresa pone gran parte de la responsabilidad en los usuarios para que tomen las medidas adecuadas al interactuar con herramientas de IA.
El propietario de ChatGPT tiene una publicación de blog sobre su enfoque de la seguridad de la IA. La empresa enfatiza que no utiliza los datos para vender servicios, hacer publicidad o construir perfiles de usuarios, OpenAI utiliza los datos para hacer modelos más útiles. Por ejemplo, las conversaciones de los usuarios se utilizarán para entrenar ChatGPT.
La política de privacidad de ChatGPT se considera bastante vaga.
La política de privacidad de Google, la empresa que desarrolló la herramienta Bard AI, tiene disposiciones adicionales para los usuarios de IA. La empresa seleccionará una pequeña parte de la conversación y utilizará herramientas automatizadas para eliminar información de identificación personal. Este enfoque mejora Bard y protege la privacidad del usuario.
Los capacitadores revisarán las conversaciones de muestra y las conservarán durante hasta 3 años, separadas de la cuenta de Google del usuario. Google también recuerda a los usuarios que no deben incluir información personal sobre ellos mismos o sobre otros en las conversaciones en Bard AI. El gigante tecnológico enfatizó que no utilizará estas conversaciones con fines publicitarios y anunciará cambios en el futuro.
Bard AI permite a los usuarios elegir no guardar conversaciones en su cuenta de Google, así como revisar o eliminar conversaciones a través de un enlace. Además, la empresa cuenta con medidas de seguridad diseñadas para evitar que Bard incluya información personal en las respuestas.
Steve Mills cree que a veces los usuarios y desarrolladores sólo descubren los riesgos de seguridad ocultos en las nuevas tecnologías cuando ya es demasiado tarde. Por ejemplo, el autocompletado puede revelar accidentalmente el número de seguro social de un usuario.
Los usuarios no deberían poner en estas herramientas nada que no quieran compartir con otros, afirmó Mills.
[anuncio_2]
Enlace de origen
Kommentar (0)