Vietnam.vn - Nền tảng quảng bá Việt Nam

Ética de los trabajadores de los medios al utilizar tecnología de IA

Báo Quốc TếBáo Quốc Tế27/10/2024

Vivimos en la era de la revolución tecnológica 4.0, donde la inteligencia artificial (IA) se está convirtiendo gradualmente en una parte indispensable en muchas áreas de la vida social. Los medios de comunicación, como puente de información entre el público y los acontecimientos, no pueden quedar ajenos a esa tendencia.


Đạo đức của người làm truyền thông khi sử dụng công nghệ AI
La Sra. Nguyen Thi Hai Van, Directora del Centro de Capacitación en Periodismo de la Asociación de Periodistas de Vietnam, en el taller sobre tecnología de IA. (Fuente: Asociación de Periodistas de Vietnam)

Para aprovechar al máximo las ventajas que aporta la IA, los comunicadores necesitan equiparse con el conocimiento para poder utilizarla de manera efectiva, garantizando al mismo tiempo la confiabilidad y la ética en la transmisión de información.

Del “calor” de la IA

Está absolutamente claro que IA (Inteligencia Artificial) es una de las palabras clave más de moda hoy en día. En septiembre de 2024, una búsqueda en Google de la palabra clave “IA” en 0,3 segundos registró 15 mil 900 millones de resultados; Con la palabra clave "herramientas de IA", en 0,4 segundos, se registraron más de 3 mil 400 millones de resultados. Las enormes cifras hablan del nivel de cobertura e interés en la IA y las herramientas basadas en IA a nivel mundial.

Hoy en día, surgen cada vez más herramientas de IA para diversos campos, incluida la industria de los medios. Además del ampliamente conocido ChatGPT, existen muchas aplicaciones de IA desarrolladas en una dirección especializada y que cumplen tareas especializadas. No es difícil enumerar aquí muchas herramientas, por ejemplo: Bing AI, Clause, Zapier Central para grupos de tareas de Chatbot; Jasper, Copy.ai, Anyword para tareas de creación de contenido; Descript, Wondershare, Runway para tareas de producción y edición de vídeo; DALL-E3, Midjourney, difusión estable para tareas de imágenes creativas; Murf, AIVA para tareas de contenido de audio, etc. y recientemente, el gigante Amazon también presentó herramientas de IA que desarrolló, Video Generator y Image Generator, con el objetivo de "inspirar la creatividad y aportar más valor".

Aunque las herramientas de IA varían ampliamente en escala y nivel de especialización, la tecnología esencialmente tiene dos cosas en común: las herramientas de IA se desarrollan en base a algoritmos y datos para "entrenar" la herramienta de IA.

Control ético del uso de la IA en los medios

No se pueden negar las ventajas que aportan las herramientas de IA y, con el rápido ritmo de las actualizaciones tecnológicas, habrá cada vez más herramientas de IA especializadas en cada rincón, respondiendo a tareas desde simples hasta complejas en la industria de los medios. Junto con este desarrollo abrumador, surgen muchas preguntas sobre la cuestión del control ético en el desarrollo y uso de herramientas de IA en la industria de los medios. ¿Qué pasa si el algoritmo y los datos de esa herramienta de IA se manipulan de una manera que resulta perjudicial para la comunidad? ¿Quién posee los derechos de propiedad intelectual de los datos de entrada que la herramienta de IA utiliza para el entrenamiento? ¿Quién evalúa su nivel de daño?

¿Existe desigualdad entre el grupo de personas que tienen acceso y el grupo que no tiene acceso a herramientas de IA para la misma tarea? Incluso se han planteado preguntas sobre el potencial daño incontrolable que las herramientas de IA pueden causar, especialmente en áreas sensibles que pueden afectar a muchas personas a gran escala, como los medios de comunicación y las redes sociales.

Reconociendo las preocupaciones anteriores, muchas organizaciones, asociaciones, gobiernos e incluso empresas y corporaciones que desarrollan herramientas de IA han emitido recomendaciones, información explicativa y, en niveles superiores, códigos de conducta relacionados con la cuestión del control ético en la tecnología de IA. Adoptada por 193 países en 2021, la Declaración sobre la Ética de la Inteligencia Artificial de la UNESCO - Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura - Recomendación establece que “El rápido aumento de la inteligencia artificial (IA) ha creado muchas oportunidades a nivel mundial, desde ayudar en los diagnósticos de atención médica hasta permitir la conexión humana a través de las redes sociales y crear eficiencias laborales mediante la automatización de tareas.

Sin embargo, estos cambios rápidos también plantean profundas preocupaciones éticas. Estos riesgos asociados con la IA han comenzado a agravar las desigualdades existentes, lo que genera mayores daños a grupos ya desfavorecidos... Y, a partir de ahí, «solicitar a la UNESCO que desarrolle herramientas para apoyar a los Estados Miembros, incluida la Metodología de Evaluación de la Preparación, una herramienta para que los gobiernos construyan un panorama completo de su preparación para implementar la IA de forma ética y responsable para todos sus ciudadanos».

En su enfoque global, la UNESCO ha puesto en marcha el Observatorio Mundial de Ética y Gobernanza de la IA, que, según afirma, «proporciona información sobre la preparación de los países para adoptar la IA de forma ética y responsable. También alberga el Laboratorio de Ética y Gobernanza de la IA, que reúne contribuciones, investigaciones de impacto, herramientas y prácticas positivas sobre una amplia gama de cuestiones relacionadas con la ética de la IA».

Además de organizaciones globales como la UNESCO, muchas asociaciones profesionales también están trabajando para desarrollar sus propios códigos de conducta, por ejemplo, la IABC - Asociación Internacional de Comunicaciones Empresariales, una asociación con miles de miembros de todo el mundo, ha lanzado las Directrices para el uso ético de la IA por parte de los profesionales de las comunicaciones, que tiene como objetivo orientar a los miembros de la IABC sobre la relevancia del Código de Ética de la IABC para la IA. Estas directrices pueden actualizarse y complementarse con el tiempo a medida que evolucione la tecnología de IA. Dentro de este Código de Conducta, hay muchos puntos específicos que un profesional de las comunicaciones debe respetar, tales como:

Los recursos de IA utilizados deben ser gestionados por personas para crear experiencias positivas y transparentes que fomenten el respeto y la confianza en la profesión de los medios. Es importante mantenerse informado sobre las oportunidades y los riesgos profesionales que presentan las herramientas de IA. Es fundamental comunicar la información de forma precisa, objetiva y justa. Las herramientas de IA pueden presentar numerosos errores, inconsistencias y otros problemas técnicos. Esto requiere criterio humano para verificar de forma independiente que mi contenido generado por IA sea preciso, transparente y no esté plagiado.

Proteger la información personal y/o confidencial de otros y no utilizar esta información sin su permiso. Evalúe sus resultados de IA en función de la participación humana y la comprensión de la comunidad a la que desea servir. Elimine los prejuicios lo mejor que pueda y sea sensible a los valores y creencias culturales de los demás.

Debe verificar de forma independiente sus propios resultados con el rigor profesional necesario para garantizar que los materiales, la información o las referencias de terceros sean precisos, tengan la atribución y verificación necesarias y estén completamente autorizados o autorizados para su uso. No intente ocultar ni disfrazar el uso de IA en su producción profesional. Reconocer la naturaleza de código abierto de la IA y las preocupaciones de seguridad asociadas a ella, incluida la entrada de información falsa, engañosa o confusa...

Para las empresas y corporaciones que poseen, desarrollan y comercializan herramientas de IA, son ellas quienes comprenden los entresijos de dichas herramientas mejor que nadie. Conocen los algoritmos subyacentes sobre los que operan las herramientas de IA y los datos a partir de los cuales se entrenan dichas herramientas. Por lo tanto, estas empresas también necesitan proporcionar información relacionada con los principios de Ética en el desarrollo de IA. De hecho, hay empresas que están interesadas en este tema.

Google se compromete a no desarrollar herramientas de IA para áreas donde exista un riesgo significativo de daño y solo procederá cuando creamos que los beneficios superan significativamente los riesgos e incorporamos restricciones de seguridad adecuadas. Armas u otras tecnologías cuyo propósito o despliegue principal sea causar o facilitar directamente lesiones humanas. Las tecnologías que recopilan o utilizan información con fines de vigilancia violan normas internacionalmente aceptadas. Tecnologías que pretenden violar principios ampliamente aceptados del derecho internacional y de los derechos humanos.

En materia de seguridad, Google se compromete: «Seguiremos desarrollando e implementando medidas de seguridad sólidas para evitar resultados imprevistos que generen riesgos de daño. Diseñaremos nuestros sistemas de IA con la debida cautela y procuraremos desarrollarlos de acuerdo con las mejores prácticas en investigación sobre seguridad de la IA. Incorporaremos nuestros principios de privacidad en el desarrollo y uso de nuestras tecnologías de IA. Ofreceremos oportunidades para la notificación y el consentimiento, fomentaremos arquitecturas que protejan la privacidad y proporcionaremos la transparencia y los controles adecuados sobre el uso de los datos».

Al igual que Google, Microsoft también emitió una declaración sobre sus Principios y Enfoque de IA, enfatizando: “Estamos comprometidos a garantizar que los sistemas de IA se desarrollen de manera responsable y de una manera que garantice la confianza de las personas…”. Además, de una forma u otra, las grandes empresas tecnológicas que están invirtiendo fuertemente en el desarrollo de herramientas de IA como Amazon y OpenAI también han asumido sus propios compromisos.

Muchos ejemplos en la historia han demostrado la naturaleza bilateral de la tecnología, con elementos positivos y negativos que la acompañan. Después de todo, aunque es una plataforma tecnológica de “alta tecnología”, la IA todavía se basa en algoritmos y datos desarrollados y recopilados por humanos; Al mismo tiempo, la mayoría de los productos de IA son parte de los planes de negocios de las empresas que los poseen.

Por lo tanto, siempre existen riesgos potenciales tanto desde el punto de vista técnico como del equipo de desarrollo y gestión del producto. La cuestión aquí es la escala potencialmente enorme del impacto que las herramientas de IA pueden tener en las masas, incluso en el nivel socioeconómico de una comunidad. La atención oportuna al control ético al utilizar tecnología de IA es una señal positiva con la participación de organizaciones internacionales de gran escala como las Naciones Unidas, gobiernos, asociaciones industriales y, sobre todo, directamente en las unidades de desarrollo tecnológico.

Sin embargo, así como la lista de herramientas de IA lanza continuamente nuevas versiones, cada una más sofisticada y compleja que la anterior, los Códigos, Principios o Directrices también necesitan actualizarse y complementarse de manera oportuna, y además, deben ser proactivos para prevenir, limitar y controlar las unidades de desarrollo de productos y los usuarios dentro de un marco donde la capacidad de cumplir con el Control Ético en la tecnología de IA en general y los trabajadores de los medios en particular puedan lograr la mayor eficiencia.


[anuncio_2]
Fuente

Kommentar (0)

No data
No data

Mismo tema

Misma categoría

La tendencia del 'bebé patriótico' se extiende por las redes sociales antes del feriado del 30 de abril
Cafetería causa furor con bebida con la bandera nacional el 30 de abril
Recuerdos de un soldado comando en una victoria histórica
El momento en que una astronauta de origen vietnamita dijo "Hola Vietnam" fuera de la Tierra

Mismo autor

Herencia

Cifra

Negocio

No videos available

Noticias

Sistema político

Local

Producto