La inteligencia artificial no va a enseñar a nuestros hijos en un futuro cercano, a menos que no hayamos aprendido de nuestros experimentos anteriores con convertir a los niños en robots de pruebas".
Thomas Courtney
Muchos de mis colegas educadores han expresado recientemente su preocupación por el aumento de la IA en nuestras aulas. Yo no estoy de acuerdo. De hecho, los programas de IA como ChatGPT no me preocupan. Cada vez estoy más convencido de que una versión futurista de la educación no reemplazará nuestras aulas ni a nuestros maestros.

Y la razón precisa por la que no estoy preocupado es porque siento que la IA ya ha sido probada en nuestras aulas.
Quiero decir, ¿cómo llamamos a un sistema educativo de décadas que elimina el recreo, los deportes, el arte, la historia y la ciencia en muchas escuelas marginadas en nombre de obtener puntajes más altos en lectura y matemáticas? ¿O el hallazgo del Panel Nacional de Lectura en 2001 de que leer por placer no tiene un impacto en el "logro académico"? ¿Cómo llamaríamos a la enseñanza literal basada en estándares y la preparación para pruebas?
Más recientemente, ¿cómo describiríamos un aula virtual donde un profesor no acreditado supervisa a casi cien niños conectados a un plan de estudios en línea?
Si no son inteligencias de naturaleza artificial, no sé qué son.
Y aquí está la clave: todas han fracasado, y fracasado espectacularmente.
Pero, ¿por qué estas IA han fallado, por qué están fallando ahora cuando se ponen en práctica? La respuesta es simple y no necesita programación ni algoritmos. Es porque los niños no son computadoras, y lo que debemos enseñarles para que sean adultos sanos, felices y bien educados nunca ha sido menos artificial.
La IA no puede enseñar compasión.
Durante la pandemia, se publicaron una ola de artículos y libros sobre la necesidad de aprender habilidades sociales y emocionales. Yo sé, yo mismo publiqué varios. Pero lo que el público en general puede no darse cuenta es que justo antes de Covid, los legisladores no estaban interesados en el aprendizaje social y emocional. Yo sé, porque fui un becario de política que intentaba sin éxito encontrar defensores para un proyecto de ley en California para financiar el aprendizaje SEL. Pero luego vino Covid y los niños frente a las computadoras ampliaron la conversación sobre el SEL.
¿Por qué? Porque tanto los padres como los educadores quieren que sus hijos crezcan en su inteligencia social y emocional, no solo en lo académico. Las computadoras simplemente no pueden enseñar compasión, y a pesar de los esfuerzos bien publicitados, nunca lo harán.
La IA no puede enseñar ética laboral.
Durante la pandemia, en muchos distritos tener completadas las tareas era opcional. Pronto, los educadores y los escritores educativos notaron también un término totalmente nuevo: la pérdida de aprendizaje. Eso se debe a que no se trató solo de una pérdida de acceso a la tecnología durante Covid. Si ese hubiera sido el caso, solo los estudiantes que no estaban en sus computadoras durante la clase habrían experimentado una pérdida de aprendizaje. El simple hecho es que la IA no puede, al igual que ninguna tecnología por sí sola, reemplazar a un profesor humano inculcando los valores de una ética laboral en sus alumnos.
La IA no puede enseñar responsabilidad ambiental.
El cambio climático y las ciencias STEAM están en lo más alto de las prioridades a nivel nacional. Y no es solo por razones de empleo.
La IA puede asignar tareas a estudiantes sobre cuestiones ambientales. La IA puede enseñar e incluso evaluar contenido sobre cuestiones ambientales. Pero la IA no puede enseñar el tipo de responsabilidad ambiental que los humanos reales desarrollan en diversas organizaciones en todo el país. Eso requiere de humanos reales, en el mundo real y natural, brindando experiencias prácticas. Las pantallas de las computadoras no tienen manos.
La IA no puede enseñar la apreciación de la música, el teatro, la danza o cualquier otra forma de arte
Como me dijo recientemente un colega, "El arte es lo que los lleva a la escuela". No puedo estar más de acuerdo. Mis clases con mayor asistencia durante la pandemia no fueron las mías, sino las del entrenador de educación física y nuestros colaboradores en STEAM, que les dieron a los niños la oportunidad de hacer ciencia práctica en casa. Pero ¿por qué la IA no puede enseñar estas cosas de alguna manera? Porque la IA opera en el mundo virtual, y el arte es algo que experimentamos en el mundo real y táctil. Podemos producir arte virtualmente, pero la experiencia del arte requiere una presencia física. Y no solo por nosotros mismos. El arte requiere una experiencia compartida con otro ser humano real. Ya sea el espectador, el compañero de baile, el espectador o el degustador, el arte requiere no solo a una persona y una IA, sino a personas en plural compartiendo sus sentimientos sobre el arte. La IA no tiene sentimientos.
La IA no será equitativa, ni afirmará la identidad, cultura o empoderará a nadie
Para que la IA haga el trabajo de un maestro moderno, tendría que completar todas las tareas imposibles que un ser humano real hace simplemente por ser humano. Pero se requiere más, porque un maestro también debe tener en cuenta la equidad, la cultura y la identidad en su aula.
En Race After Technology de Ruha Benjamin, la autora presenta pruebas convincentes de por qué la tecnología, incluida la IA, no puede desempeñar nuestro trabajo de manera humana. Ella ilustra de manera experta que el historial de la tecnología no es algo de lo que nadie deba estar feliz, ya sea que pertenezca a una minoría o a una mayoría. Además, la IA no posee, ni nunca poseerá, la capacidad humana de comprender nuestras diferencias, ni la habilidad de comprender por qué esas diferencias son beneficiosas y, a menudo, conducen a sesgos que benefician a un grupo sobre otro.
Estoy bastante seguro de que la inteligencia artificial no va a enseñar a nuestros hijos en un futuro próximo. A menos que, claro está, no hayamos aprendido de nuestros experimentos anteriores convirtiendo a los niños en robots de prueba. Esa parte me asusta un poco. Porque si dejamos de priorizar cualidades humanas muy reales como la apreciación, la equidad, la responsabilidad, la perseverancia y la compasión, alguien, en algún lugar, con ganas de ganar dinero, va a intentarlo. Y no pasará mucho tiempo hasta que destruyamos lo mejor de nosotros como sociedad.
La buena noticia es que hacer eso sería una decisión muy humana. Una que nosotros, no las IA, controlamos.
Thomas Courtney, educador con 25 años de experiencia y miembro de la Asociación de Educación de San Diego, fue el Maestro del Distrito Primario del Año 2021 y el Maestro Guía del Año 2022 de SDSU. Enseña humanidades, ELA y ELD en la Escuela Secundaria Millennial Tech.