Por qué la IA puede llegar demasiado lejos para los medios de comunicación

Por Stuart Almond, responsable de Intelligent Media Services, Sony Solutions Europe

En esta era digital, las nuevas tecnologías nos ofrecen la capacidad de hacer realidad lo que antes se consideraba imposible. Desde asistentes virtuales en nuestros teléfonos inteligentes y transacciones automáticas en servicios financieros hasta aplicaciones en el espacio de defensa, la inteligencia artificial (IA) desempeña un papel fundamental en la creación de flujos de trabajo más eficientes, eficaces y creativos en todos los sectores.

 

Según el Foro Económico Mundial, el propio sector de la IA crecerá un 50 % cada año hasta 2025, momento en el que se prevé que alcance el increíble valor de 127 mil millones de dólares. Esto tendrá un efecto visible en el sector de los medios de comunicación y entretenimiento. Según PwC, la IA contribuirá a este sector unos 150 mil millones de dólares al año.

 

La IA tiene un enorme potencial para transformar el modo en que las organizaciones de medios de comunicación reciben, editan y distribuyen el contenido. La IA puede potenciar la eficiencia, la uniformidad y añadir valor en aquellos lugares en los que no esté presente. En definitiva, permite combinar buen contenido y alta personalización para crear una experiencia informativa más fluida y significativa para públicos de todo el mundo.

 

Ya que parece imposible imaginar un futuro sin IA, es crucial utilizarla bien, empezando por la cuestión ética. La carrera por desarrollar o adoptar las últimas tecnologías de IA acelera rápidamente en todos los puntos de contacto, desde la creación de contenido hasta su consumo. Esto se traduce en la creciente responsabilidad de usuarios y proveedores sobre su impacto ético.

 

¿Cómo podemos garantizar que el uso de la IA beneficie a todo el mundo, desde creadores hasta consumidores, sin dejar de respetar los principios y valores periodísticos de hoy en día?

 

La lucha contra las «fake news»

 

Según una reciente investigación de Reuters, casi tres cuartas partes de los medios de comunicación actualmente se interesan por cómo la IA puede ayudarles a crear y distribuir contenido de forma más eficiente por medio de aplicaciones como el reconocimiento de voz, la detección facial o las correcciones de edición. Medios de comunicación como Bloomberg ya dependen de la automatización para cubrir «noticias económicas» (por ejemplo, informes de los mercados financieros) para ahorrar tiempo a los periodistas. Se espera que en 2027 el 90 % de todos los artículos del mundo estén escritos por IA.

 

El potencial de la IA para transformar positivamente la producción de informativos y de contenido es evidente, y durante los próximos años desempeñará un papel crucial para determinar el contenido que vemos y leemos en nuestro día a día. Pero, ¿qué nivel de poder y control debemos otorgar a la IA? Si bien la tecnología que «piensa» está ganando utilidad rápidamente, no puede contar con libertad absoluta y debe adherirse a algún tipo de principios éticos. Esto es especialmente importante en la lucha contra las noticias falsas o «fake news».

 

El aprendizaje automático (AA), que se define como la ciencia que permite a los ordenadores aprender de los datos, identificar patrones y tomar decisiones con una mínima intervención humana, es primordial para que la IA luche contra las noticias falsas. La idea consiste en que las máquinas mejoren su rendimiento con el tiempo y se vuelvan autónomas progresivamente. Por tanto, no es una sorpresa que se esté utilizando la IA para generar y seleccionar historias automáticamente.

 

Sin embargo, antes de llegar a este punto, los algoritmos de AA deben ser entrenados y programados por humanos para mejorar la precisión de la IA. Esto es muy importante, porque las máquinas sin intervención humana carecen de habilidades humanas básicas como el sentido común, la comprensión y la capacidad de contextualizar, lo que provoca muchas dificultades a la hora de determinar correctamente si un contenido es o no veraz. Si un medio de comunicación deja que la IA siga su curso sin ningún tipo de intervención humana (como es la contextualización), se arriesga a difuminar la línea entre la información y la opinión, de modo que potencialmente fomentaría las noticias falsas en lugar de luchar contra ellas.

 

Héctor Sierra, Sales Manager de Sony Europe, comenta: “el potencial de la IA en cualquier ámbito, incluido el de los medios de comunicación, es incalculable. Aun así, es necesario tener en cuenta que todo avance tecnológico conlleva una serie de riesgos, y por ello resulta de crucial relevancia mantener un control exhaustivo de su implementación y trabajar de forma constante para su correcto desarrollo”.

 

 

 

Personalización sin filtros burbuja

 

La personalización del contenido puede crear experiencias de mayor calidad para los consumidores, como ya hemos visto en servicios de transmisión como Netflix, mediante la creación de recomendaciones basadas en el comportamiento y en el historial de visualización personales. Los medios de comunicación no son una excepción y ya están utilizando la IA para satisfacer la demanda de personalización.

 

Por ejemplo, el servicio de recomendaciones James, relativamente reciente y desarrollado por The Times y Sunday Times para News UK, aprenderá de las preferencias individuales y personalizará automáticamente cada edición (por formato, tiempo y frecuencia). En esencia, sus algoritmos serán programados por humanos, pero mejorarán con el tiempo gracias a que el propio ordenador buscará una serie de resultados acordados.

 

Si bien el filtrado por algoritmos (selección automática del contenido que debe o no mostrarse a los usuarios y cómo se presenta) satisface la demanda de personalización del consumidor, también puede llegar demasiado lejos. ¿Y si los consumidores solo escuchan y leen las noticias que quieren oír en lugar de lo que realmente ocurre a su alrededor y en el mundo?

 

Esto es lo que se conoce como el problema del «filtro burbuja»: los algoritmos diseñados por las plataformas para mantener el interés de los usuarios pueden llevarlos a ver únicamente el contenido que legitime sus creencias y opiniones. Es responsabilidad de los medios de comunicación encontrar el equilibrio entre proporcionar a los consumidores un contenido personalizado según sus intereses y necesidades personales y garantizar que se sigan exponiendo a ambas versiones de la historia.

 

La IA es sin duda una tecnología prometedora, pero no deja de tener sus luces y sombras. Debemos asegurarnos de que el uso de la IA beneficie a todos, desde creadores de contenido hasta consumidores, pero debe hacerse de una forma ética que esté en consonancia con los principios y valores periodísticos. Para ello necesitamos que los medios de comunicación tengan en cuenta y prioricen la ética en la implementación de IA. Es decir, los humanos deben tomar las medidas necesarias para garantizar que la IA se utilice por los motivos adecuados y que, si se utiliza, se respeten los controles y la ética, desde un correcto entrenamiento hasta una recopilación de datos transparente. De otro modo, a largo plazo, el uso de la IA puede generar más problemas que beneficios a los medios de comunicación.