Jorge Llaguno: “En la medida que enriquecemos nuestro acervo, podemos darle un mejor uso a la inteligencia artificial”

El profesor titular en las áreas de Factor Humano y Análisis de Decisiones del Ipade fue invitado por Barna Management School para impartir el taller “Infocalipsis: sesgos humanos vs inteligencia artificial”

Jorge Llaguno. (Fuente externa)

Los avances en inteligencia artificial (IA) ofrecen oportunidades, pero también riesgos. Sobre las dos caras de este campo de la informática habló Jorge Llaguno, tras ser invitado por Barna Management School para impartir el tallerInfocalipsis: sesgos humanos vs inteligencia artificial”.

En el ámbito de su visita al país, Diario Libre tuvo la oportunidad de conversar con el profesor titular en las áreas de Factor Humano y Análisis de Decisiones del Instituto Panamericano de Alta Dirección de Empresa (Ipade) sobre los temas abordados en el taller y cómo los medios de comunicación pueden sacarle mayor provecho a la IA.

-¿A qué hace referencia el término infocalipsis? 

Es un término acuñado por varios académicos en Estados Unidos que se refiere a una situación eminente en los medios de comunicación, en la cual están sobrepoblados de contenido creado por inteligencia artificial, pero con el propósito de engañar o disfrazar la realidad. Es decir, pueden crear la imagen de una persona hablando o diciendo lo que sea, y va a ser muy difícil para el público distinguir si ese video es real o no. 

Cuando la internet esté sobrepoblada de videos y textos así, se volverá muy complicado para el público saber a qué noticias hacerles caso y a cuáles no, cuáles son ‘fake news’ y cuáles son verdaderas. El problema con esto es que lo que se anticipa es una caída global de la fe del público en todo medio de comunicación. A eso es que llamamos infocalipsis, el momento en el que se pierde por completo la vinculación entre las audiencias y los medios. 

-La inteligencia artificial, ¿es tan inteligente como creemos?

Lo que estamos viviendo hoy no es inteligencia artificial, hoy lo que tenemos es procesamiento estadístico a alta velocidad compuesto de aprendizajes que le permiten modelos predictivos muy precisos. No es inteligente en el sentido que nosotros llamamos inteligente, porque no sabe que existe ni sabe lo que hace. En los textos que proporciona, por ejemplo, no entiende lo que escribe, pero lo que escribe tiene coherencia, porque está basado en grandes volúmenes de información donde se han repetido ideas semejantes, sabe qué palabra va después de otra por una cuestión estadística y gran poder de computo. 

-¿Cuáles son las oportunidades que ofrece la inteligencia artificial para profesionales del área de la comunicación?

Periodistas y escritores con los que he tenido la oportunidad de hablar se han dado cuenta de que ayuda a vencer la hoja en blanco; le puedes dar unos cuantos renglones y te puede dar alternativas de noticia de las que puedes escoger la mejor, combinarlas, redactarlas a tu gusto, lo cual te acelera tiempos. También te puede hacer una revisión gramatical, sugerir cambios de palabras o en la redacción. Para eso sí, pero no te puede escribir una nota completa y profunda, porque eso requiere un proceso que no ha llegado todavía. 

-Y para obtener buenos resultados, hay que saber usarla…

Para aprovecharla mejor en comunicación, se necesita gente que sepa de comunicación, que sepa hacerle las preguntas correctas y los parámetros adecuados. Si una persona sin preparación le pide que haga una noticia, va a entregar algo muy simple, pero si un periodista con experiencia sabe darle parámetros con base en lo que conoce, arrojará algo mucho más profundo. Entonces lo que hay que hacer es seguir profundizando en nuestros campos, porque en la medida que enriquecemos nuestro acervo, podemos hacer mejores preguntas, y, por ende, darle un mejor uso.  

-¿Qué puede decirnos sobre los riesgos?

Hay muchos riesgos. Uno, que mencionaba al principio, es la facilidad con la que es posible clonar a personas, voces, y utilizarlas para fines no lícitos o no morales. ‘Fake news’, atentados a la privacidad, ataques personales, son peligros reales que ya se hacían antes, pero ahora con herramientas que favorecen que parezcan reales. 

Una segunda muy fuerte es que es muy fácil ver en la inteligencia artificial a una persona real. Hace poco salió la noticia de que una chica se casó con su acompañante virtual. Es muy importante tener claro que, sin importar lo que conteste, no existe, no piensa, no sabe lo que está diciendo. Es un peligro grave, porque puede crear adicción en las personas, sentimientos de frustración al ver que verdaderamente no hay una respuesta emocional, y esto es un daño ya presente, incluso con demandas. 

Otra que me preocupa es la pereza psicológica, académica y laboral. Muchas personas dan como bueno y válido lo que arroja la inteligencia artificial, cuando, con mucha frecuencia, presenta respuestas equivocadas, porque usa la base de datos que tiene para crear una posible respuesta. Esto es peligroso, porque podemos descargar en la inteligencia artificial la responsabilidad de un trabajo profundo de lectura y análisis crítico, que es lo que tenemos que hacer como personas. Es a lo que llamo pereza.

-¿Cuál es el rol que deben asumir los medios para luchar contra el infocalipsis?

Los medios tienen que recuperar su origen. Están llamados a ser el balance crítico que nos ayude a pensar y repensar el poder de los gobernantes, el poder de la industria, el poder de las cosas influyentes. Si van a utilizar temas para generar polémica, deben hacerlo criticándolo, no solo reproducir el mensaje que les llega. 

Periodista de Revista. Le apasiona escribir sobre salud mental y relaciones de pareja. De no ser periodista, sería psicóloga con un blog.