Después de que la startup OpenAI lanzara su primera aplicación de IA, ChatGPT, a fines de 2022, se desencadenó una ola de competencia para desarrollar aplicaciones de IA, especialmente IA generativa, que brinda muchas comodidades en todas las áreas de la vida. Sin embargo, esto también conlleva muchos riesgos.
Invasión de la privacidad
En los últimos años, muchas organizaciones e individuos han sufrido pérdidas cuando los ciberdelincuentes utilizaron IA para crear videoclips que falsificaban imágenes y voces de personas reales. Un ejemplo es el truco Deepfake.
Según el Informe de Fraude de Identidad publicado por Sumsub a fines de noviembre de 2023, las estafas Deepfake a nivel mundial aumentaron 10 veces entre 2022 y 2023. Éste es también el momento de la explosión de las aplicaciones de IA artificial en el mundo.
Status Labs comentó que Deepfake ha tenido un enorme impacto en la cultura, la privacidad y la reputación personal. Gran parte de las noticias y la atención que rodean a los Deepfakes se han centrado en los vídeos pornográficos de celebridades, la pornografía de venganza, la desinformación, las noticias falsas, el chantaje y las estafas. Por ejemplo, en 2019, una empresa energética de EE. UU. fue estafada por 243.000 dólares por un estafador que se hizo pasar por la imagen y la voz de los líderes de la empresa y pidió a los empleados que transfirieran dinero a sus socios.
La agencia de noticias Reuters dijo que en 2023, alrededor de 500.000 contenidos Deepfake en formato de vídeo y voz se compartieron en las redes sociales de todo el mundo. Además de los Deepfakes por diversión, existen trucos creados por malos para estafar a la comunidad. Según fuentes, en 2022, se estima que las estafas Deepfake en todo el mundo causaron pérdidas de hasta 11 millones de dólares.
Muchos expertos en tecnología han advertido sobre los efectos negativos que provoca la IA, incluidos los derechos de propiedad intelectual y la autenticidad, y además, las disputas sobre derechos de propiedad intelectual entre "obras" creadas por IA. Por ejemplo, una persona le pide a una aplicación de IA que dibuje una imagen con un tema determinado, pero otra persona también le pide a la IA que haga lo mismo, lo que da como resultado imágenes con muchas similitudes.
Esto facilita que surjan disputas sobre la propiedad. Sin embargo, hasta la fecha, el mundo aún no ha tomado una decisión sobre el reconocimiento de derechos de autor para el contenido generado por IA (reconocer los derechos de autor para las personas que encargan IA creativa o para las empresas que desarrollan aplicaciones de IA).
Una imagen generada por una aplicación de IA
Es difícil distinguir entre lo real y lo falso.
Entonces, ¿puede el contenido generado por IA violar los derechos de autor? En términos de tecnología, el contenido generado por IA se sintetiza mediante algoritmos a partir de los datos con los que ha sido entrenado. Los desarrolladores de aplicaciones de IA recopilan estas bases de datos de muchas fuentes, principalmente de la base de conocimiento de Internet. Muchas de estas obras están protegidas por derechos de autor de sus propietarios.
El 27 de diciembre de 2023, The New York Times (EE. UU.) demandó a OpenAI (con ChatGPT) y Microsoft, alegando que millones de sus artículos se utilizaron para entrenar chatbots de IA y plataformas de IA de estas dos empresas. La evidencia es que existe contenido creado por chatbots a petición de los usuarios que es similar o idéntico al contenido de los artículos. Este periódico no puede ignorar cuando su “propiedad intelectual” es utilizada por empresas con fines lucrativos.
The New York Times es el primer periódico importante de Estados Unidos que presenta una demanda por derechos de autor relacionada con la IA. Es posible que en un futuro próximo otros periódicos también presenten demandas, especialmente después del éxito de The New York Times.
Anteriormente, OpenAI llegó a un acuerdo de licencia de derechos de autor con la agencia de noticias Associated Press en julio de 2023 y con Axel Springer, un editor alemán propietario de dos periódicos, Politico y Business Insider, en diciembre de 2023.
La actriz Sarah Silverman también se unió a varias demandas en julio de 2023, acusando a Meta y OpenAI de usar sus memorias como texto de entrenamiento para programas de IA. Muchos escritores también expresaron alarma cuando se reveló que los sistemas de inteligencia artificial habían absorbido decenas de miles de libros en su base de datos, lo que provocó demandas de autores como Jonathan Franzen y John Grisham.
Mientras tanto, el servicio de fotografía Getty Images también demandó a una empresa de inteligencia artificial por crear imágenes basadas en indicaciones de texto debido al uso no autorizado de material visual con derechos de autor de la empresa...
Los usuarios pueden tener problemas de derechos de autor cuando utilizan "descuidadamente" "obras" que han pedido a herramientas de IA que "compongan". Los expertos siempre recomiendan utilizar herramientas de IA solo para buscar, recopilar datos y hacer sugerencias solo como referencia.
En otra cuestión, las aplicaciones de IA confunden a los usuarios cuando no pueden distinguir entre la verdad y la falsedad de un determinado contenido. Los editores y editores pueden sentirse confundidos cuando se trata de aceptar manuscritos. Los profesores también tienen problemas para saber si el trabajo de los estudiantes utiliza IA o no.
La comunidad ahora tendrá que estar más alerta porque no sabe qué contenido es real y qué contenido es falso. Por ejemplo, sería difícil para una persona promedio detectar si una foto ha sido “encantada” o editada por IA.
Se necesitan regulaciones legales sobre el uso de la IA
A la espera de herramientas de aplicación que puedan detectar la intervención de la IA, los organismos de gestión necesitan disponer pronto de regulaciones legales claras y específicas sobre el uso de esta tecnología para crear contenidos privados. Las regulaciones legales deben mostrar a las personas que el contenido y las obras han sido intervenidos por IA, por ejemplo, de forma predeterminada, colocando marcas de agua en las imágenes que han sido manipuladas por IA.
Fuente: https://nld.com.vn/mat-trai-cua-ung-dung-tri-tue-nhan-tao-196240227204333618.htm
Kommentar (0)