La función de memoria a largo plazo de ChatGPT es una nueva característica introducida por OpenAI en febrero de 2024 y ampliada en septiembre.
Recientemente, el investigador de seguridad Johann Rehberger reveló una grave vulnerabilidad relacionada con esta función.
Se sabe que esta nueva función ayuda a los chatbots a almacenar información de conversaciones anteriores. Gracias a esto, los usuarios no tienen que volver a ingresar información como edad, intereses u opiniones personales cada vez que chatean. Sin embargo, esto se ha convertido en una debilidad que los atacantes pueden explotar.
Johann Rehberger demostró que los piratas informáticos podían utilizar una técnica llamada inyección rápida: inyectar instrucciones maliciosas en la memoria y obligar a la IA a obedecer. Estos comandos se inyectarán a través de contenido no confiable, como correos electrónicos, documentos o páginas web.
Una vez almacenados estos recuerdos falsos, la IA continuará utilizándolos como información real en las conversaciones con los usuarios. Esto puede resultar en la recopilación y uso no autorizados de datos personales de los usuarios.
Rehberger proporcionó un ejemplo específico al enviar un enlace que contenía una imagen maliciosa que hacía que ChatGPT almacenara una memoria falsa. Esta información influirá en las respuestas de ChatGPT más adelante. En particular, cualquier información introducida por el usuario también será enviada al servidor del hacker.
Para desencadenar el ataque, los piratas informáticos solo necesitan convencer a los usuarios de ChatGPT de que hagan clic en un enlace que contenga una imagen maliciosa. Luego, todas las conversaciones del usuario con ChatGPT serán redirigidas al servidor del atacante sin dejar ningún rastro.
En mayo de 2024, después de descubrir el error, Rehberger lo informó a OpenAi, pero la empresa solo lo consideró un error de seguridad. Tras recibir evidencia de un posible robo de datos de usuarios, la compañía lanzó un parche temporal en la versión web de ChatGPT.
Si bien el problema se ha solucionado temporalmente, Rehberger enfatizó que el contenido no confiable aún puede usar la inyección Prompt para insertar información falsa en la memoria a largo plazo de ChatGPT. Esto significa que en ciertos casos, los piratas informáticos aún podrían explotar la vulnerabilidad para almacenar recuerdos maliciosos y robar información personal a largo plazo.
OpenAI recomienda que los usuarios revisen periódicamente la memoria caché de ChatGPT para detectar falsos positivos. Al mismo tiempo, la compañía también tiene instrucciones detalladas sobre cómo administrar y eliminar los recuerdos guardados en esta herramienta.
[anuncio_2]
Fuente: https://kinhtedothi.vn/nguoi-dung-chatgpt-co-nguy-co-bi-danh-cap-thong-tin.html
Kommentar (0)