Skip to content

IA: 12 principios globales para su uso responsable y sostenible en el periodismo

Organizaciones periodísticas de todo el mundo plantean los lineamientos que creen que deberían regir el desarrollo, la implementación y la regulación de estas herramientas tecnológicas

 

El desarrollo de la inteligencia artificial (IA) ha abierto un mundo de nuevas oportunidades en las empresas de comunicación, pero el uso de esta tecnología también implica riesgos.

Fernando García Mongay, director XXI del Encuentro de Responsables de Tecnología en los Medios de Comunicación Española, destaca que la IA puede ser un complemento capaz de proporcionar “posibilidades brutales” al periodismo, pero siempre hará falta alguien que cuente el hecho noticioso

“A través de la IA es muy fácil crear contenidos y puede haber quien sienta la tentación de pensar que cuanto más contenidos crea, más tráfico genera, pero sin revisarlas con cierto criterio profesional”, advierte.

En este sentido, asegura que ya se difunden newsletter o resúmenes que se generan automáticamente a través de la IA sin intervención humana, advirtiendo que se empiezan a hacer contenidos no verificados que pueden llevar a un sesgo en que la propia inteligencia artificial no dé los resultados veraces que se esperan del periodismo.

Por ello es se debe de establecer un marco ético para que la IA se desarrolle de manera responsable y sostenible.

En ese sentido, organizaciones periodísticas de todo el mundo plantea 12 principios globales para regular la inteligencia artificial, un documento que establece los lineamientos que creen que deberían regir el desarrollo, la implementación y la regulación de estas herramientas tecnológicas.

“Si bien las tecnologías de IA brindarán beneficios sustanciales al público, a los creadores de contenidos, a las empresas y a la sociedad en general, también plantean riesgos para la sostenibilidad de las industrias creativas, la confianza del público en el conocimiento, el periodismo y la ciencia, y la salud de nuestras democracias”, argumentan las organizaciones firmantes.

Nuestras organizaciones representan a miles de profesionales creativos de todo el mundo, incluidos editores de noticias, revistas y libros y la industria editorial académica, como sociedades científicas y editoriales universitarias, que invierten una cantidad considerable de tiempo y recursos en la creación de contenido de alta calidad que mantenga a sus comunidades informadas, entretenidas y comprometidas, sostienen.

Estos principios, que se aplican al uso de nuestro contenido para entrenar e implementar sistemas de IA, tal como se entienden y utilizan hoy en día, tienen como objetivo garantizar la capacidad continua para innovar, crear y difundir dicho contenido, al tiempo que facilitan el desarrollo responsable de sistemas de IA confiables.

Los 12 principios:

Propiedad intelectual

1. Los desarrolladores, operadores e implementadores de sistemas de IA deben respetar los derechos de propiedad intelectual que protegen las inversiones de los titulares de derechos en contenido original.

2. Los editores tienen derecho a negociar y recibir una remuneración adecuada por el uso de su propiedad intelectual.

3. Los derechos de autor y los derechos auxiliares protegen a los creadores y propietarios de contenidos del uso sin licencia de su contenido.

4. Deben reconocerse los mercados existentes para la concesión de licencias de contenidos a creadores y titulares de derechos.

Transparencia

5. Los sistemas de inteligencia artificial deberían brindar transparencia granular a los creadores, titulares de derechos y usuarios.

Responsabilidad

6. Los proveedores y los implementadores de sistemas de IA deben cooperar para garantizar la responsabilidad por los resultados del sistema.

Calidad e integridad

7. Garantizar la calidad y la integridad es fundamental para generar confianza en la aplicación de herramientas y servicios de IA.

Justicia

8. Los sistemas de IA no deberían crear, ni correr el riesgo de crear, resultados de competencia o de mercado desleales.

Seguridad

9. Los sistemas y modelos de IA deben diseñarse para promover fuentes de información confiables y producidas de acuerdo con los mismos estándares profesionales que se aplican a los editores y las empresas de medios.

10. Los sistemas de IA deben ser seguros y abordar los riesgos de privacidad.

Por diseño

11. Estos principios deben incorporarse por diseño en todos los sistemas de IA, incluidos los sistemas de IA de propósito general, los modelos básicos y los sistemas GAI.

Desarrollo sostenible

12. La naturaleza multidisciplinaria de los sistemas de IA los posiciona idealmente para abordar áreas de preocupación global.

Fuentes: News Media Alliance, EFE

También te recomendamos