La inteligencia artificial (IA) generativa es una herramienta y por sí misma no es buena ni mala, pero se nutre de millones de datos que pueden ser incorrectos, imprecisos, falsos y, consecuentemente, los contenidos que crea también lo son si estos no son corregidos.
Cada herramienta, como pasa con los medios de comunicación, tiene detrás un modelo de negocio e ideológico y se puede convertir fácilmente en un amplificador de contenidos fraudulentos.
Con esta premisa en mente, consumir información sin una mirada crítica nos puede llevar a formarnos una visión totalmente tergiversada de una realidad polarizada. Como consumidores y prosumidores –un tipo de cliente que surge a partir de la digitalización y que es central para cualquier negocio– de contenidos deberíamos sentirnos interpelados a título individual antes, durante y después de crear, consumir o compartir contenido. Pero también sensibilizarnos acerca del papel que juega en todo esto la IA.
Una pregunta que tendríamos que hacernos cuando recibimos un mensaje es si ha sido manipulado o no. Por ello es clave que desde la etapa escolar nos preocupemos por una alfabetización mediática que nos permita asumir un papel más activo.
Una de las potencialidades –o peligros– de la IA es la capacidad de acelerar la velocidad a la que se crean contenidos personalizados, ya que estas herramientas o plataformas permiten automatizar su difusión, adaptar los mensajes y dirigirlos a un perfil concreto.
Esta capacidad puede resultar muy interesante desde el punto de vista comunicativo y periodístico. A la vez, hemos constatado una mejora continua del perfeccionismo de las diferentes herramientas a la hora de crear imágenes. Según la experta Elena Perrotti:
“Hace solo tres meses, las falsificaciones profundas presentaban errores evidentes, sobre todo en la reproducción de extremidades, manos y pies. Ahora son mucho más precisas y se difunden aún más rápido. En particular, la tecnología ha tenido verdaderos avances en lo que respecta a la liberación de herramientas para la sincronización labial y la ‘voz en off’, lo que hace posible utilizar medios disponibles públicamente para clonar voces sin permiso”.
Fiabilidad de la información periodística
El ritmo de la regulación legislativa va por detrás de la velocidad de avance de la tecnología. Por ello, resulta crucial tomar medidas para evitar un mal uso y posibles daños. En este sentido, la UE acordó las bases de la ley europea de la IA, prevista para entrar en vigor en 2026. Se definen varios niveles de protección, como la seguridad y defensa de los derechos fundamentales y la creación de un ecosistema de confianza.
“La atención se centra en los aspectos éticos, legales y técnicos de su uso, con la idea de responsabilizar a las empresas de las infracciones de privacidad o de las decisiones injustas tomadas por sus IA”, asegura el catedrático de la UPC Jordi Torres en su libro La intel·ligència artificial explicada als humans.
Se necesitan profesionales que corrijan y validen
Como consumidores de medios debemos conocer la existencia de los consejos del audiovisual a nivel autonómico o de la Plataforma Europea de Autoridades Reguladoras (EPRA), lugares donde se trabaja para regular, proteger colectivos y también donde los consumidores pueden presentar reclamaciones. En paralelo, medios pioneros han creado la figura de corresponsal de desinformación, por ejemplo Marianna Spring en la BBC.
Los medios de comunicación que hacen un buen periodismo deben verificar las fuentes, contrastar la información y revisar y corregir los contenidos emitidos por herramientas de IA. Por lo tanto, son necesarios profesionales que corrijan, retoquen y validen contenidos que pueden parecer certeros, pero que contienen errores.
A veces los prompts –instrucciones, preguntas o textos que se utilizan para interactuar con la IA– no están bien descritos o no se interpretan tal y como el autor quiere, de manera que también se requiere un nivel de conocimiento experto. Además, si estamos familiarizados con la industria periodística, identificamos que los algoritmos de los buscadores posicionan mejor las noticias cuando están redactadas y estructuradas de una manera concreta, y por ello una gran parte de los periodistas utilizan modos similares para componer textos.
En consecuencia, se produce una estandarización de la información digital. De la mano de los prompts también va el algoritmo y tener un conocimiento más avanzado de su funcionamiento nos ayuda a entender que los resultados que plantea dependen del uso que se haga de él.
¿Puede la IA frenar la desinformación?
Existen las denominadas granjas o fábricas de contenido, que suelen estar impulsadas por IA y que casi no tienen supervisión humana.
Al igual que mencionamos anteriormente una de las potencialidades de la IA, ahora añadimos otra: la verificación de información que, además, es una salida profesional con creciente demanda. La misma IA puede combatir noticias falsas y ya existen diferentes iniciativas que ponen el foco en ello.
También disponemos de herramientas de IA que permiten agilizar y mejorar ciertas rutinas de trabajo, además de facilitar la participación de los lectores. Para analizar el alcance de la aplicación de la IA en el quehacer diario de los fact-checkers españoles se emplea la observación directa y las respuestas de las plataformas a un cuestionario elaborado expresamente para este trabajo. Del análisis se desprende que la aplicación de los sistemas de IA en el campo de la verificación se concentra principalmente en el ámbito interno con herramientas de ayuda a la verificación, en algunos casos de creación propia.
Ciertamente, cada vez más será necesario hacer un consumo consciente de la información y el uso que se decida hacer de la IA generativa será clave para la calidad de los contenidos de los medios.
Candela Ollé, Directora del Máster Universitario Periodismo y Comunicación Digital, UOC – Universitat Oberta de Catalunya
Este artículo fue publicado originalmente en The Conversation. Lea el original.
--
--