La siguiente escena entre Eduardo y su hijo Facu seguramente se debe haber repetido por miles en nuestro país y en el mundo. Y fue contada en primera persona por el propio papá. “En mi casa se habla de tecnología todo el tiempo porque soy docente y una de las cosas que enseño es Inteligencia Artificial. Hace un tiempo viene mi hijo Facu, que estaba en cuarto año de secundaria, y me dice: ‘Papi, el profe de química nos pidió que hiciéramos una línea de tiempo de la historia de la química con sus principales actores y todos sus descubrimientos. Nos pidió que miráramos este video de YouTube, que dura 2 horas’. Y me cuenta que, para hacerlo más sencillo, cargó el video en una web que transcribe el audio, luego le dio el texto a ChatGPT y le encomendó que hiciera la línea de tiempo. Todo el proceso le llevó 5 minutos. Lo presentó y vino superorgulloso a contarnos que había sacado un 10. Pero yo le pregunté: ‘¿Aprendiste química?’. Su respuesta fue la que yo suponía".
El diálogo es real y Eduardo es Eduardo Laens, un profesor de niveles secundario y universitario que enseña IA en la Universidad de Palermo, un educador que sobre todo es papá y que se preocupa por esa doble cara que tienen estos nuevos modelos como GPT o Gémini: así como pueden impulsar el aprendizaje y mejorar la experiencia académica, también plantean serias dudas sobre la autenticidad del trabajo del alumno, el peligro de que su dependencia pueda atrofiar su proceso creativo, impulsándolo a hacer menos en vez de aprender más, y ponen bajo la lupa el papel que debe ejercer el docente.
“La irrupción de estos modelos como ChatGPT me impacta como padre de hijos en edad escolar; me impacta como profesional, porque veo que en las organizaciones hay una dependencia creciente de estos modelos; y me impacta como docente, porque obviamente el trabajo dentro del aula ha cambiado. En cada una de esas tres dimensiones hay muchísimos beneficios, pero también muchísimas alertas a tener presente. Y siempre me gusta empezar diciendo que no me opongo a la inteligencia artificial para nada: al contrario, la enarbolo, la utilizo y la recomiendo. Pero creo que nos vendieron algo que no venía con el catálogo de contraindicaciones. Nos dijeron: ‘Usen esto, diviértanse’. Y nadie nos dijo: ‘Guarda que puede haber dependencia, guarda que puede haber una afectación de nuestros procesos creativos, analíticos y críticos a la hora de delegarle todo a un modelo y recibir lo que viene como si fuera un oráculo de la verdad’, dijo Laens en diálogo con Punto Medio, programa de Radio 2.
“Me he encontrado con personas muy bien educadas, muy bien instruidas, con mucha capacidad de analizar y criticar procesos, pero que sin embargo hasta le hacen preguntas a estos modelos acerca de qué decisión tienen que tomar en el futuro respecto de una cosa muy importante de sus vidas. Y es, perdón la analogía, como el pulpo Paul tratando de decir quién va a ganar el Mundial. No podemos pedirles a estas generativas de texto tomas de decisión del futuro, no miran el futuro. Son muy buenos generando contenidos y primeros borradores, pero tenemos que entender dónde están sus límites”, apuntó con perplejidad.
Repensar la educación
Volviendo a la anécdota de inicio, Laens cree que la aparición, desarrollo y masividad de este tipo de plataformas deben llevar a la sociedad a “repensar la forma en la que educamos. Por ejemplo, los trabajos prácticos, las monografías, las tareas para el hogar son buenas herramientas para que el alumno ejercite un poco más fuera del horario escolar, pero hoy ya no avalan la adquisición de conocimiento: no podemos confiar en que, porque cumplieron con eso, pudieron comprender el tema. La evaluación debe ocurrir aulas adentro”.
Para el profesor y CEO de Varegos, “ese proceso analítico en donde vos validás que el conocimiento fue incorporado puede llevarse a cabo con herramientas no tan nuevas como el debate, la lluvia de ideas o la evaluación oral, que son las que le permiten al docente decir: ‘Okey, estos chiquilines realmente incorporaron el conocimiento’. Incluso el docente puede pedirles a estos modelos herramientas para poder trabajar en el aula con sus alumnos porque son geniales tirando ideas de ese tipo, por lo cual no tenemos que expulsar la inteligencia artificial del aula, tenemos que usarla con criterio para potenciar la experiencia”.
Hacia un uso responsable de la IA
Por supuesto que la tentación de hacer un trabajo práctico que llevaría horas en apenas unos pocos clicks será cada vez mayor, incluso para profesionales del mundo del trabajo. Y mientras se debate el rol de los estados en la confección de marcos éticos que más que controlar su uso, inciten a los alumnos a hacer un uso responsable de la IA, Laens tiene claro que los docentes deben estar alertas y hablar claramente con los chicos, “explicándoles que estas herramientas sirven para esto, pero para esto otro son perjudiciales”.
“Si vos todo le pedís al modelo que lo hago por vos, vas a estar atrofiando una parte de tu sinapsis cerebral que es la que realiza el pensamiento crítico, el pensamiento analítico y el pensamiento creativo. El pensamiento creativo es eso que nos ataca cuando tenemos que mirar una hoja en blanco y tengo que escribir algo por primera vez: cuando me tengo que poner creativo, me tengo que poner a pensar, a ver por dónde voy. Eso es lo primero que hoy todos le estamos cediendo a estos modelos: ‘Ayúdame a escribir un mail, ayúdame a escribir un trabajo práctico, ayúdame…’. Hay una frase que a mí me gusta muchísimo que dice: ‘Cada vez que yo delego una habilidad en una tecnología, resigno esa habilidad'. Cuando el ser humano aprendió a construir, se olvidó cómo prender fuego con dos piedras y dos palitos. Cuando a mí me dieron mi primera calculadora, me olvidé cómo era dividir por dos cifras. Eso es lo que hay que charlar con los chicos”, manifestó Laens.
“Si yo le pido a un modelo que siempre escriba por mí el primer borrador, dentro de dos, tres años, va a ser imposible para mí sentarme ante esa hoja en blanco y hacer un primer borrador. Sam Altman, el creador de OpenAI, en diciembre pasado dio una entrevista porque OpenAI se cayó 4 horas y dejó de funcionar GPT. Y él mismo dijo: "Nos dimos cuenta que se cayó esto y no supimos qué hacer. No tuvimos las herramientas para resolver el problema porque nos habíamos mal acostumbrado depender de la herramienta para resolver el problema”, añadió.
Y concluyó: “Lo que tenemos que enseñarles a los docentes es a decir: ‘Chicos, esto viene a ser un copiloto de nuestra vida. Pero es un copiloto: el auto lo manejas vos, la mirada crítica, la mirada creativa es tuya. Le podés pedir que te pimponee ideas, que te ayude con un brainstorming, que te dé alternativas de pensamiento lateral, pero después el resto es tu cabecita y tu cerebro; si no, lo más probable es que el grupo de la humanidad que decida ir por ese camino, caiga en una mediocridad, que es la que hace funcionar al propio modelo de IA, que trabaja por estadística y genera una estadística de mediana que dice: ‘Esto es lo que haría la mayoría de las personas’. Y, perdón, pero uno no quiere ser la mayoría de las personas. Uno usualmente quiere destacarse por encima de esa mayoría. Si yo solo vivo dependiendo del algoritmo, el algoritmo me dará la mediana, pero voy a estar probablemente en la mediocridad: es decir en esa media de lo que la mayoría de la gente lo hubiera hecho”.