VIDEO | Virginia Linares: "Lo principal para utilizar la lA con responsabilidad es el manejo de fuentes"
La periodista española Virginia Linares ha sido invitada por el Instituto Global de Altos Estudios en Ciencias Sociales (Iglobal) para impartir una ponencia sobre el uso de la IA en los medios de comunicación
La Inteligencia Artificial (IA) superará nuestras capacidades cognitivas, pero tenemos que tener presente que: se necesita de un manejo de las fuentes para usarla responsablemente y sirve como herramienta para combatir lo que ella misma crea, la desinformación. Estas reflexiones son de la periodista española-venezolana y experta en el análisis del discurso para combatir la desinformación a través de la inteligencia artificial, Virginia Linares. Invitada por el Instituto Global de Altos Estudios en Ciencias Sociales (Iglobal), Linares impartió una ponencia sobre el uso de la IA en los medios de comunicación.
—¿Cómo ve el impacto de la IA en el periodismo, especialmente en redes sociales?
El impacto es exponencial, sobre todo porque se está generando una ola de desinformación bastante potente. Es decir, la inteligencia artificial es una herramienta muy útil, sirve por supuesto para la difusión y para la ayuda en la redacción de información, pero también tiene sus desventajas; está creando una vorágine de desinformación a través de un caos que no ayuda en lo absoluto a la sociedad para estar estar al día de las noticias
Entonces, hay que tenerlo muy enfocado para saber hacia dónde vamos, si es a un periodismo automatizado o a la censura, porque hay gobiernos y países que no están de acuerdo con el uso de las redes sociales. Tenemos que tener el foco y la visión muy amplia para saber a dónde vamos a llegar.
Google recurre a la energía nuclear para alimentar a sus centros de datos de IA
—¿Cuáles son los aspectos positivos y negativos sobre el impacto de la IA en el periodismo y las redes sociales?
Hay un impacto que parece más negativo; estamos demonizando la inteligencia artificial al punto de que creemos que solamente es considerada para difundir bulos para viralizar informaciones. Pero de hecho, la IA le da un punto de vista más sociológico y científico, está enfocada precisamente para combatir la desinformación
Hay muchísimas herramientas y aplicaciones que están al alcance de todos nosotros, sobre todo en el mundo del periodismo, para poder combatir la desinformación. Lo que pasa es que nos encontramos en una sociedad hiperconectada, en la cual, incluso el receptor ya no es pasivo, se convierte en emisor y generador de contenido. Esto hace que se genere un caos de información que llega incluso a las redes sociales y es muy difícil neutralizarlo, a menos que se haga a través de la censura.
Se necesita de una educación responsable, una alfabetización digital.
—¿Cómo definiría el periodismo automatizado?
Es un periodismo que puede ser muy útil siempre y cuando se utilicen las herramientas de una forma adecuada.
El periodismo humano, por ejemplo, no va a desaparecer porque el automatizado se nutre precisamente de la fuente humana; de alguien que está detrás de la noticia, que ha estado en el sitio y ha establecido un punto de vista, un enfoque.
De eso se nutre el periodismo automatizado, de la mano del periodismo y las fuentes humanas.
Unos 84 millones de empleos en América Latina están expuestos por la IA, según el BID
—¿Qué implicaciones tiene el periodismo automatizado en los medios de comunicación?
Los medios de comunicación no pueden evadir la realidad, eso está clarísimo. La inteligencia artificial llegó allí y está para quedarse.
Tienen que tener ese compromiso social y periodístico de la rigurosidad. No podemos cambiar un puesto de trabajo por un algoritmo, porque los algoritmos también tienen sesgos e incluso muchos vacíos; son ciertas cajas negras porque no sabemos de qué tipos de datos se nutre.
Entonces, ¿dónde está el filtro? Para eso es necesario la fuente humana en el periodismo.
Todo lo que tiene que ver con IA está avanzando de una manera realmente tan vertiginosa que puede dar miedo, pero más bien creo que los medios tienen que ser responsables de que ese periodismo automatizado se utilice en pro y en beneficio de la sociedad y no solamente para combatir la desinformación, sino para viralizar una noticia real.
—¿Qué ejemplos concretos tenemos de cómo la automatización ha sido implementada en el periodismo y su impacto en la cobertura de noticias?
Ahora mismo hay un canal de noticias 24 horas creado exclusivamente con inteligencia artificial: se llama "News GPT".
Allí, aparte de los presentadores que son personajes creados con inteligencia artificial, las imágenes y videos que transmiten también son generadas de la misma manera, basados incluso en noticias que ellos consideran fiables y reales, pero no existe un filtro; de hecho cuando entras te avisa que todos los contenidos son recreados y difundidos con IA, y que, si consideras que hay una noticia falsa, te piden ayuda para mejorar.
—¿Cuándo se verán obligados los medios a utilizarla?
Yo creo que en breve porque una de las destrezas cognitivas que le faltaba a la inteligencia artificial era el razonamiento y ya se está poniendo a prueba en Open AI con Chat GPT para crear un algoritmo capaz de razonar, incluso a niveles de estudiantes de doctorado; es decir, que pueda generar un razonamiento claro, una interpretación.
Mientras más rápido se toque tierra, mucho mejor, porque así podemos hacer esa alfabetización digital. Hay que entrar en ese mundo estando en una sociedad que está hiperconectada, donde las nuevas generaciones son nativos digitales.
—¿Cómo pueden los medios de comunicación equilibrar la implementación de la automatización manteniendo un enfoque humano y ético en su cobertura?
Por ejemplo, para la búsqueda de información y la difusión de noticias es una herramienta muy potente, sin embargo, para el nivel de subjetividad mínimo que siempre hay que transmitir, es preciso que esté el periodista. Ahí se va generando ese equilibrio,
Una IA tendrá la capacidad de razonar, de describir un texto de opinión, pero son textos planos, no generan esa empatía con el lector. Creo que realmente ese es el equilibrio que debe existir.
—¿Tendrá el periodista que, junto con su firma, poner la de la inteligencia artificial?
Yo creo que sí, debería ser lo más honesto posible, y estoy completamente segura que ahora mismo muchos periodistas basan sus informaciones en la IA por la actualidad y por la rapidez
—¿Y cómo reaccionaría el lector?
Como ya es generador de contenido seguramente le impactará, pero eso forma parte de la responsabilidad social y periodística que tienen los medios de comunicación; mientras más honestidad y más transparencia, mejor.
Por un lado el lector incluso se puede sentir ofendido porque creerá que no estamos haciendo nuestro trabajo como debemos, pero por otro lado también se va a sentir agradecido; por primera vez están siendo honestos los medios de comunicación, cuando realmente nuestra reputación siempre está en tela de juicio,
Llegará un momento en el que eso tendrá que encajar, esas dos cosas tendrán que encajar.
El Nobel de Química premia los avances sobre la predicción de la estructura de las proteínas con IA
Nokia alerta del aumento de ciberataques a teleoperadoras por la IA y la automatización
—¿Hasta qué punto creen que pueden afectar las regulaciones a la IA para una buena labor del periodismo?
Es un tema bastante álgido, el tema de la regulación de la inteligencia artificial, además uno de los sectores, una de las profesiones más afectadas del sector comunicación, lógicamente, entonces tenemos que evitar que eso llegue a un nivel de censura.
Sobre todo eso no sabemos que el límite, la libertad de expresión es una línea muy roja, no sabemos realmente dónde está siempre, lo estamos buscando, pero no sabemos realmente dónde está y ahora con la inteligencia artificial ese límite, esa línea difusa, todavía se borra mucho más. Entonces yo creo que hay que tener una regulación, lógicamente muy responsable, que no solamente satisfaga a los responsables o a los directivos de los medios, sino pensada más bien en la información que recibe la sociedad.
—¿Qué es para usted la inteligencia artificial?
Para mí es una herramienta muy útil que sirve precisamente para combatir lo que ella misma crea, que es desinformación.
En algún momento va a superar nuestras capacidades cognitivas. Realmente hay algunos sesgos, pero se irán perfeccionando.
Hay que trabajarla con responsabilidad; tratar de motivar a la sociedad para que aprenda a reconocer una noticia falsa de una real, porque esa percepción de no saber realmente lo que se está consumiendo sea real o falso es desinformación.
—¿Qué consejos da a los periodistas?
El consejo principal es el manejo de las fuentes. Para poder utilizar la inteligencia artificial con responsabilidad hay que saber qué fuente ha utilizado realmente para generar la información. Las aplicaciones que están al alcance del periodista son herramientas indispensables. No hay una disociación entre periodista e inteligencia artificial, eso ya no se concibe.
Otro de los consejos es la infinidad de manuales y lecturas en internet sobre este tipo de herramientas.
También, es fundamental centrarse en la realidad y no ayudar a la apariencia. A veces esa tergiversación de la información no solamente se da por una IA sino por errores humanos. Hay que saber identificarlas, y eso no es algo nuevo. Nos lo dijo Platón y los sofistas en el siglo V antes de Cristo
Por último y fundamental, independientemente de todas las herramientas que se usen para la difusión de sus informaciones, siempre tiene que estar por delante la responsabilidad social periodística, la honestidad y la credibilidad del periodista, que es lo único que va a tener a lo largo de toda su carrera.