Experto alerta sobre los riesgos éticos que traen a las aulas la IA
José Luis Córica, científico de datos, investigador y consultor internacional, advirtió sobre el desafío que conlleva “entregarse alegremente” a la Inteligencia Artificial
José Luis Córica, científico de datos, investigador y consultor internacional, manifestó que la educación virtual y la llegada de la Inteligencia Artificial (IA) ha generado preocupación en los sistemas educativos y en los docentes, principalmente por los riesgos éticos que implican su aplicación en la enseñanza.
El experto argentino participó como orador en el “Simposio Internacional Inteligencia Artificial en la Educación Superior, Ética, Ciencia y Tecnología”, organizado por el Ministerio de Educación Superior, Ciencia y Tecnología (MESCyT), el pasado 26 de septiembre.
Considera que los temores se fundamentan, básicamente, en que el estudiante apruebe “haciendo trampas, sin haber construido los aprendizajes”.
El desafío ético es la limitación a la libertad de elección, que surge como consecuencia, explicó, de hacer más transparente la IA. “Es decir, la integración silenciosa y no percibida de algoritmos que orientan nuestras decisiones”, expresó Córica.
Entrevistado por Diario Libre, resaltó que le “entregamos alegremente” a los data center de la Inteligencia artificial de las nubes demasiada información personal, al punto que hoy día lo que lees en un diario sobre tu perfil y tu búsqueda en la web, lo elige un sistema de IA.
Una persona navega por internet, los memes, la interacción con la gente, con quién te vas a comunicar porque viste algo que pasó -manifestó- te lo elige la IA, así como la música que escuchas, en función del perfil que has construido.
Córica dijo que la pregunta, en el fondo, es hasta dónde las decisiones que tomamos, que están basadas en nuestras emociones, en nuestra red de contacto emocional y en la información a la que accedemos y que leemos, es el resultado de una decisión propia. “¿Es una decisión influenciada o construida por un algoritmo de inteligencia artificial?”, planteó.
Modelos educativos deben ser sólidos
Para Córica, la virtualidad y la Inteligencia Artificial pueden ser aliadas de la educación, siempre que el modelo educativo Institucional sea sólido.
Subrayó que si una institución educativa tiene un modelo en donde, para determinar si el estudiante construyó o no construyó el aprendizaje, toma como evidencia un ensayo o una respuesta a un texto objetivo, como un test con opciones de respuestas múltiples, o de verdadero o falso, estas cosas la inteligencia artificial autogenerativa las resuelve con muchísima facilidad.
“Si el modelo está mal, esto no es un problema del sistema educativo, no es un problema de los modelos de Inteligencia Artificial, es un problema institucional de cómo evalúa la institución el aprendizaje “, sostuvo.
El científico de datos refirió que antes de que existiera el internet, accesible para todo el mundo, para los profesores y para muchos modelos educativos bastaba con que el estudiante reuniera una cierta cantidad de información importante, para que el profesor considerara que había hecho un esfuerzo cognitivo, porque se aprendía mucho buscando y reuniendo datos e información.
En la era del internet, dijo, si el modelo se quedó en que la evidencia de aprendizaje es la cantidad de información que el estudiante tiene o puede reunir; el estudiante con internet te reúne la información y no aprende nada y eso no es evidencia de que haya logrado el objetivo.
“Comprendimos que con los modelos virtuales y los presenciales, no bastaba la reunión de información como evidencia de aprendizaje y tuvimos que decir (al estudiante): usted tiene que elaborar un texto, una producción intelectual. Bastaba con controlar que esa producción intelectual no estuviera en algún otro lado o no fuera un mero copy page”, manifestó.
Es el sistema educativo, alertó Córica, el que tiene la responsabilidad ética y filosófica de educar para crear un futuro utópico y prevenir un futuro distópico, “lo que solo se logra a través de la generación de una conciencia colectiva”.
Puso de ejemplo lo que se hizo con el cuidado del agua y también con la concienciación sobre la clasificación de residuos y la contaminación que producen los combustibles fósiles.
El especialista recomendó fortalecer en los planes de estudio las competencias duras, en especial las matemáticas, estadísticas y el pensamiento computacional, para que los estudiantes comprendan conceptualmente qué son los algoritmos. Córica expuso en su conferencia que es imprescindible formar para las competencias del futuro: análisis crítico, diagnóstico, selección de herramientas, selección de estrategias, evaluación de impactos de corto, mediano y largo plazo de cada una de ellas, capacidad de aprendizaje permanente, capacidad de trabajo en equipo, comunicación asertiva, comunicación multicultural y, finalmente, crear una conciencia colectiva que evite los futuros distópicos para cualquier tecnología y para cualquier herramienta.
Abinader pulsa el botón que simboliza el apagón análogo y el encendido de la televisión digital
La misión de cascos azules que pide Haití no se enviará por oposición de Rusia y China
República Dominicana apoya el envío de cascos azules de la ONU a Haití
Los vehículos de alta gama importados con exoneraciones: legislador por legislador
Leonel Fernández dictará conferencia en Columbia University durante su visita a Nueva York