La jefa de gabinete de la Cámara de Representantes, Catherine Szpindor, ha emitido una guía general para las oficinas del Congreso, pidiéndoles que no utilicen la aplicación Copilot de Microsoft. Copilot es una plataforma impulsada por IA que puede chatear y responder preguntas en texto (también conocido como chatbot), similar a ChatGPT de OpenAI.
Logotipo de Microsoft
"La Oficina de Ciberseguridad ha considerado que la aplicación Copilot de Microsoft representa un riesgo para los usuarios debido a la amenaza de exfiltración de datos de House a servicios en la nube no aprobados por House", decía el aviso citado por Axios , y agregaba que la aplicación será eliminada y bloqueada en todos los dispositivos Windows de House.
La oficina de la Sra. Szpindor dijo que la guía se aplicaba a la "versión comercial" de la aplicación Copilot, pero que también evaluaría la versión gubernamental una vez que estuviera implementada.
Microsoft ha lanzado versiones gratuitas y de pago de Copilot, con varias opciones de pago para empresas. Las versiones pagas pueden funcionar directamente en aplicaciones de oficina como World, Excel, Outlook y PowerPoint.
Esta es la última medida regulatoria del gobierno federal de Estados Unidos en su búsqueda de redactar regulaciones para la tecnología emergente. En junio de 2023, la Cámara de Representantes de EE. UU. también restringió a los empleados el uso de ChatGPT, permitiendo solo la versión paga y prohibiendo la versión gratuita de la aplicación.
En una declaración, Microsoft reconoció las mayores demandas de seguridad de los usuarios gubernamentales de datos y dijo que la compañía ha anunciado una hoja de ruta para alinear sus herramientas con la orientación del gobierno, abordando las preocupaciones de seguridad.
Aplicaciones como Copilot o ChatGPT utilizan grandes cantidades de datos para "aprender" y ha habido preocupaciones sobre derechos de autor y problemas de seguridad de datos cuando aparecieron estas aplicaciones. Según Axios , muchas empresas están comprando versiones pagas, pero con la condición de que los datos no se utilicen para entrenar futuros modelos de IA debido al riesgo de fugas de datos.
Enlace de origen
Kommentar (0)