Ética de los trabajadores de los medios de comunicación al utilizar tecnología de IA

Báo Quốc TếBáo Quốc Tế27/10/2024

Vivimos en la era de la revolución industrial 4.0, donde la inteligencia artificial (IA) se está convirtiendo poco a poco en una parte indispensable en muchas áreas de la vida social. Los medios de comunicación, como puente de información entre el público y los acontecimientos, no pueden quedar ajenos a esa tendencia.


Đạo đức của người làm truyền thông khi sử dụng công nghệ AI
La Sra. Nguyen Thi Hai Van, Directora del Centro de Capacitación en Periodismo de la Asociación de Periodistas de Vietnam, en el taller sobre tecnología de IA. (Fuente: Asociación de Periodistas de Vietnam)

Para aprovechar al máximo las ventajas que aporta la IA, los comunicadores necesitan equiparse con el conocimiento para utilizarla de manera eficaz, garantizando al mismo tiempo la confiabilidad y la ética en la transmisión de información.

Del “calor” de la IA

Está absolutamente claro que IA (Inteligencia Artificial) es una de las palabras clave más de moda hoy en día. En septiembre de 2024, una búsqueda en Google de la palabra clave “IA” en 0,3 segundos registró 15 mil 900 millones de resultados; Con la palabra clave "herramientas de IA", en 0,4 segundos, se registraron más de 3 mil 400 millones de resultados. Las enormes cifras hablan del nivel de cobertura e interés en la IA y las herramientas basadas en IA a nivel mundial.

Hoy en día, surgen cada vez más herramientas de IA para diversos campos, incluida la industria de los medios. Además del ampliamente conocido ChatGPT, existen muchas aplicaciones de IA desarrolladas en una dirección especializada y que cumplen tareas especializadas. No es difícil enumerar aquí muchas herramientas, por ejemplo: Bing AI, Clause, Zapier Central para grupos de tareas de Chatbot; Jasper, Copy.ai, Anyword para tareas de creación de contenido; Descript, Wondershare, Runway para tareas de producción y edición de vídeo; DALL-E3, Midjourney, difusión estable para tareas de imágenes creativas; Murf, AIVA para tareas de contenido de audio, etc. y recientemente, el gigante Amazon también presentó herramientas de IA que desarrolló, Video Generator y Image Generator, con el objetivo de "inspirar la creatividad y aportar más valor".

Aunque las herramientas de IA varían ampliamente en escala y nivel de especialización, la tecnología tiene esencialmente dos cosas en común: las herramientas de IA se desarrollan en base a algoritmos y datos para "entrenar" la herramienta de IA.

Control ético del uso de la IA en los medios de comunicación

No se puede negar la conveniencia que brindan las herramientas de IA y, con el rápido ritmo de las actualizaciones tecnológicas, habrá cada vez más herramientas de IA especializadas en cada rincón, respondiendo a tareas desde simples hasta complejas en la industria de los medios. Junto con este desarrollo abrumador, surgen muchas preguntas sobre la cuestión del control ético en el desarrollo y uso de herramientas de IA en la industria de los medios. ¿Qué pasa si el algoritmo y los datos de esa herramienta de IA se manipulan de una manera que resulta perjudicial para la comunidad? ¿Quién es el propietario de los derechos de propiedad intelectual de los datos de entrada que utiliza la herramienta de IA para el entrenamiento? ¿Quién evalúa su nivel de daño?

¿Existe una desigualdad entre el grupo de personas que tienen acceso y el grupo que no tiene acceso a herramientas de IA para la misma tarea? Incluso se han planteado preguntas sobre el potencial daño incontrolado que las herramientas de IA pueden causar, especialmente en áreas sensibles que pueden afectar a muchas personas a gran escala, como los medios de comunicación y las redes sociales.

Reconociendo las preocupaciones mencionadas anteriormente, muchas organizaciones, asociaciones, gobiernos e incluso empresas y corporaciones que desarrollan herramientas de IA han emitido recomendaciones, información explicativa y códigos de conducta más elevados relacionados con la cuestión del control ético en la tecnología de IA. Adoptada por 193 países en 2021, la Declaración sobre la Ética de la Inteligencia Artificial de la UNESCO - Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura - Recomendación establece que “El rápido aumento de la inteligencia artificial (IA) ha creado muchas oportunidades a nivel mundial, desde ayudar en los diagnósticos de atención médica hasta permitir la conexión humana a través de las redes sociales y crear eficiencias laborales mediante la automatización de tareas.

Sin embargo, estos rápidos cambios también plantean profundas preocupaciones éticas. Estos riesgos asociados con la IA han comenzado a agravar las desigualdades existentes, provocando más daños a grupos ya desfavorecidos…”. Y a partir de ahí “pedir a la UNESCO que desarrolle herramientas para apoyar a los Estados Miembros, incluida la Metodología de Evaluación de Preparación, una herramienta para que los gobiernos construyan un panorama integral de su preparación para implementar la IA de manera ética y responsable para todos sus ciudadanos.

En su enfoque global, la UNESCO ha lanzado el Observatorio Mundial de Ética y Gobernanza de la IA, que, según dice, “proporciona información sobre la preparación de los países para adoptar la IA de manera ética y responsable”. La iniciativa también alberga el Laboratorio de Ética y Gobernanza de la IA, que reúne contribuciones, investigaciones impactantes, conjuntos de herramientas y prácticas activas en una amplia gama de cuestiones de ética de la IA…”

Además de organizaciones globales como la UNESCO, muchas asociaciones profesionales también están trabajando para desarrollar sus propios códigos de conducta, por ejemplo, la IABC - Asociación Internacional de Comunicaciones Empresariales, una asociación con miles de miembros de todo el mundo, ha lanzado las Directrices para el Uso Ético de la IA por Profesionales de la Comunicación, que tiene como objetivo orientar a los miembros de la IABC sobre la relevancia del Código de Ética de la IABC para la IA. Estas directrices pueden actualizarse y complementarse con el tiempo a medida que evoluciona la tecnología de IA. Dentro de este Código de Conducta, hay muchos puntos específicos que un profesional de las comunicaciones debe respetar, tales como:

“Los recursos de inteligencia artificial utilizados deben estar impulsados ​​por humanos para crear experiencias positivas y transparentes que infundan respeto y generen confianza en la profesión de los medios. Es importante mantenerse actualizado sobre las oportunidades profesionales y los riesgos que presentan las herramientas de IA. Es necesario comunicar la información de forma precisa, objetiva y justa. Las herramientas de IA pueden sufrir muchos errores, inconsistencias y otros problemas técnicos. Esto requiere el juicio humano para verificar de forma independiente que mi contenido generado por IA sea preciso, transparente y libre de plagio.

Proteger la información personal y/o confidencial de otros y no utilizar esta información sin su permiso. Evalúe sus resultados de IA en función de la participación humana y la comprensión de la comunidad a la que pretende servir. Elimine los prejuicios lo mejor que pueda y sea sensible a los valores y creencias culturales de los demás.

Debe verificar personalmente sus resultados con el rigor profesional necesario para garantizar que los materiales, la información o las referencias de terceros sean precisos, tengan la atribución y verificación necesarias y estén completamente autorizados o licenciados para su uso. No intente ocultar ni disfrazar el uso de IA en su producción profesional. Reconocer la naturaleza de código abierto de la IA y las preocupaciones de seguridad asociadas a ella, incluida la entrada de información falsa, engañosa o confusa...

Las empresas y corporaciones que poseen, desarrollan y comercializan herramientas de IA son quienes mejor entienden los entresijos de las herramientas de IA. Conocen los algoritmos subyacentes con los que funcionan las herramientas de IA y los datos con los que se entrenan. Por lo tanto, estas empresas también necesitan proporcionar información relacionada con los principios éticos en el desarrollo de la IA. De hecho, hay empresas que están interesadas en este tema.

Google se ha comprometido a no desarrollar herramientas de IA para áreas donde exista un riesgo significativo de daño, y solo procederá cuando creamos que los beneficios superan significativamente los riesgos e incorporamos restricciones de seguridad adecuadas. Armas u otras tecnologías cuyo propósito o despliegue principal sea causar o facilitar directamente lesiones humanas. Las tecnologías que recopilan o utilizan información con fines de vigilancia violan normas internacionalmente aceptadas. Tecnologías que violan principios ampliamente aceptados del derecho internacional y los derechos humanos.

En materia de seguridad y protección, Google se compromete a: “Seguiremos desarrollando e implementando medidas de seguridad y protección sólidas para evitar resultados no deseados que generen riesgos de daño. Diseñaremos nuestros sistemas de IA para que sean apropiadamente cautelosos y buscaremos desarrollarlos de acuerdo con las mejores prácticas en investigación de seguridad de IA. Incorporaremos nuestros principios de privacidad en el desarrollo y uso de nuestras tecnologías de IA. “Crearemos oportunidades para la notificación y el consentimiento, fomentaremos arquitecturas que protejan la privacidad y brindaremos transparencia y control adecuados sobre el uso de los datos”.

Al igual que Google, Microsoft también emitió una declaración sobre sus Principios y Enfoque de IA, enfatizando: “Estamos comprometidos a garantizar que los sistemas de IA se desarrollen de manera responsable y de una manera que garantice la confianza de las personas…”. Además, de una forma u otra, las grandes empresas tecnológicas que están invirtiendo fuertemente en el desarrollo de herramientas de IA como Amazon y OpenAI también han asumido sus propios compromisos.

Numerosos ejemplos en la historia han demostrado la naturaleza bilateral de la tecnología, con elementos positivos y negativos que la acompañan. Después de todo, aunque es una plataforma tecnológica de “alta tecnología”, la IA todavía se basa en algoritmos y datos desarrollados y recopilados por humanos; Al mismo tiempo, la mayoría de los productos de IA forman parte de los planes de negocio de las empresas que los poseen.

Por lo tanto, siempre existen riesgos potenciales tanto desde el punto de vista técnico como del equipo de desarrollo y gestión del producto. La cuestión aquí es la escala potencialmente enorme del impacto que las herramientas de IA pueden tener en las masas, incluso en el nivel socioeconómico de una comunidad. La atención oportuna al control ético al utilizar tecnología de IA es una señal positiva con la participación de organizaciones internacionales de gran escala como las Naciones Unidas, gobiernos, asociaciones industriales y, sobre todo, directamente en las unidades de desarrollo tecnológico.

Sin embargo, así como la lista de herramientas de IA lanza continuamente nuevas versiones, cada una más sofisticada y compleja que la anterior, los Códigos, Principios o Directrices también necesitan actualizarse y complementarse de manera oportuna, y además, deben ser proactivos para prevenir, limitar y controlar las unidades de desarrollo de productos y los usuarios dentro de un marco donde la capacidad de cumplir con el Control Ético en la tecnología de IA en general y los trabajadores de los medios en particular pueda lograr la mayor eficiencia.



Fuente

Kommentar (0)

No data
No data

Mismo tema

Misma categoría

Las flores frescas aumentan drásticamente de precio antes del 8 de marzo
Lugar de caza de nubes a 170 km de Hanoi, los visitantes vienen a acampar y experimentan el clima de las 4 estaciones
Al ver Spacetime, al público le encantó porque nuestros soldados son muy buenos.
Luc Yen, una joya verde escondida

Mismo autor

Herencia

Cifra

Negocio

No videos available

Noticias

Ministerio - Sucursal

Local

Producto