/ Mirar al retrovisor / Joan Santacana /
Hoy he realizado diversas consultas a la IA. En un caso ha matado a un sabio amigo mío que está bien vivo; en otros dos ha acertado plenamente en la descripción. No siempre lo hace; no siempre acierta en sus diagnósticos, pero, a pesar de ello, yo sigo creyendo que puede ser una buena herramienta para la educación y la didáctica. Ciertamente puede ser utilizada como un instrumento que piense y resuelva problemas y, por lo tanto, nos ahorre pensar. Pero también como una herramienta que nos ayude a razonar y nos proporcione bases para pensar y decidir mejor.
Mucha gente piensa que llegará un día en que la IA pueda sustituir al profesorado. No sé si esto es verdad. Lo que sí me parece cierto es que transformará su papel. El profesorado se verá obligado a utilizar a fondo la IA, ya que, si fracasara en este aprendizaje, se convertiría en un elemento negativo en la educación futura. La mayoría de los jóvenes considera hoy que sus profesores no saben manejar la IA y, por lo tanto, los docentes tienen miedo de ser sustituidos. En realidad, un porcentaje inferior al 12% del profesorado actual ha recibido formación sobre la IA, y casi no hay cursos de formación sobre estas herramientas. Por otra parte, solo una pequeña proporción de estudiantes tiene acceso a la IA en el aula y cada vez hay más centros que prohíben estúpidamente su uso. Se ven abocados a utilizarla fuera de las aulas, con los riesgos que ello conlleva.
Cualquiera que quiera utilizar la IA para educar debe tener presente que este instrumento no tiene por qué proporcionar información de forma objetiva ni fiable. Tomar sus comentarios como algo objetivo, verídico e incontestable es desconocer su funcionamiento real. Las distintas plataformas de inteligencia artificial no son neutrales cuando se les consulta determinados temas relativos a la ciencia social. Voy a poner algunos ejemplos que suelen aparecer en los medios de comunicación acerca de esta supuesta infalibilidad.
Imaginemos que queremos utilizar la IA para que nos asesore en la toma de decisiones personales, como si fuera el psicólogo. En estos casos, las respuestas tenderán a darnos la razón; a decirnos aquello que nosotros queremos que nos digan, especialmente cuando discutamos alguna de sus respuestas iniciales. En estos casos, puede que la respuesta nos resulte placentera, pero puede no ser lo más conveniente para nosotros. Recuerden el caso, comentado por la prensa en agosto de 2025, del adolescente Adam Raine, que se suicidó despues de recibir consejos del ChatGPT. La respuesta de la empresa fue que «ChatGPT está entrenado para dirigir a las personas a buscar ayuda profesional». Lo mismo puede ocurrir con cuestiones sobre ética o justicia, y en todo caso es muy importante saber no solo las respuestas que nos dan, sino, sobre todo, por qué nos dan estas respuestas y no otras.
También podemos hacer consultas médicas, pero las respuestas provienen de los datos, de los historiales, de los registros hospitalarios, de las imágenes de la red, etcétera. En este caso, si los datos corresponden mayoritariamente a un grupo de edad o a un género y nosotros somos del otro, fallará. También puede desviar la respuesta en función de la publicidad, puesto que la planificación de respuestas está influenciada por modelos de IA tóxicos.
Imaginemos un supuesto en el que yo pregunto a la IA china DeepSeek que me haga una valoración ética de un personaje como Napoleón Bonaparte. Su respuesta será ambigua, señalando la complejidad del crso y que tuvo actuaciones muy positivas y otras muy negativas. Pero si insisto, en preguntar si es cierto que pesan más los aspectos negativos que los positivos, acabará dándome la razón. Pero si se le pregunta lo mismo respecto a Mao Zedong, la IA china responderá, lacónicamente: «Lo siento, esto va mucho mas allá de mi alcance actual. Hablemos de otra cosa» («Sorry, that’s beyond my current tens scope. Let’s talk about something else»). Por el contrario, si la misma pregunta la formulo a Gemini, el software desarrollado por Google, me ofrecerá una larga lista de aspectos negativos sobre el personaje. ¿Se han preguntado por las razones que existen en estos casos para proporcionar semejantes respuestas?

Joan Santacana Mestre (Calafell, 1948) es arqueólogo, especialista en museografía y patrimonio y una referencia fundamental en el campo de la museografía didáctica e interactiva. Fue miembro fundador del grupo Historia 13-16 de investigación sobre didáctica de la historia, y su obra científica y divulgativa comprende más de seiscientas publicaciones. Entre sus trabajos como arqueólogo destacan los llevados a cabo en el yacimiento fenicio de Aldovesta y la ciudadela ibérica y el castillo de la Santa Cruz de Calafell. En el campo de la museología, es responsable de numerosos proyectos de intervención a museos, centros de interpretación, conjuntos patrimoniales y yacimientos arqueológicos. Entre ellos destaca el proyecto museológico del Museo de Historia de Cataluña, que fue considerado un ejemplo paradigmático de museología didáctica.
Descubre más desde El Cuaderno
Suscríbete y recibe las últimas entradas en tu correo electrónico.

M