Juan Manuel del Pozo
Parafraseando el inicio de un célebre texto, más ambicioso que el de esta modesta reflexión, podríamos decir que un fantasma recorre el mundo. Un «fantasma» no en el sentido usual de las ficciones de miedo, sino en el sentido etimológico, es decir, una «aparición», y una aparición de extenso e intenso impacto social: la inteligencia artificial.
Hace décadas que se creó este concepto –discutible desde varios puntos de vista, pero finalmente consolidado y exitoso–, y hace unos años que ocupa y preocupa a mucha gente del mundo tecnológico y, últimamente, del mundo sociológico, del filosófico o ético y cada vez más del educativo. La última «agitación» del fantasma es de unas semanas atrás, ya en el año 2023, con el nombre de «chats conversacionales» –«conversación», ¡cuidado!, con una macromáquina de inteligencia artificial (IA a partir de ahora)–, el más difundido de los cuales ha sido ChatGPT; esta última agitación del fantasma impacta singularmente sobre el mundo educativo porque se le reconoce la capacidad de elaborar en pocos minutos un texto corto, mediano o largo a petición de la persona interesada –como por ejemplo un estudiante de cualquier nivel–, con una gran apariencia de solvencia de fondo, coherencia estructural y pulcritud formal. «Apariencia», sí, pero también «gran». Se le encuentran muchos defectos, pero, como dicen sus creadores, «estamos al principio, ya lo hacemos bastante bien y mejoramos muy de prisa». El partido acaba de empezar y juegan con coraje.
No es mi objetivo ahora entrar en el análisis de la potencia –que ya es mucha y va a crecer– y los límites –que existen, pero pueden tender a disminuir– de esta última agitación del fantasma. Pero la he mencionado como punto de partida o referencia de la reflexión que propongo, basada en el interés general del asunto y en una cierta preocupación filosófica y educativa, fuertemente mezcladas, porque personalmente siempre he sentido como esenciales la dimensión educativa de la filosofía y la dimensión filosófica de la educación.
Por respeto filosófico y educativo hacia la poesía, empecémos con una cita inspiradora, de T. S. Elliot, escrita hace casi cien años (leedla y pensad qué diría ahora): «¿Dónde está la sabiduría que hemos perdido en conocimiento? / ¿Dónde el conocimiento que hemos perdido en información?».
La última palabra de este fragmento, información, es la clave de nuestro asunto. Toda la tecnología de la IA es tecnología de la información: la IA opera con la información como el panadero opera con la harina. La IA es una evolución de la ya vieja informática, que en su mismo nombre detalla su materia prima. La información de la IA ha conseguido dar un salto cualitativo, además del básico cuantitativo, con los datos, con el otro célebre fantasma de nuestra época: el big data. Es como si de repente en la panadería hubieran entrado millones –no exagero– de sacos de harina. El panadero debe correr urgentemente a encontrar a un tecnólogo que le resuelva el almacenaje, primero, y a continuación, el aprovechamiento rápido de aquella inmensidad de materia prima. Pues bien, el big data –una infinidad literal de datos– ya ha encontrado el tecnólogo: la IA. Juntas, bien gestionadas, son un solo panadero que puede hacer pan para todo el planeta. El problema filosófico y educativo es que la calidad del pan es muy discutible: es el nivel cero del aprendizaje humano, el nivel de simple acumulación informativa, que aún no es conocimiento –falta elaboración crítica– y está muy lejos de la sabiduría –falta articulación provechosa con la vida real, personal y social.
Justamente una tecnóloga de primer nivel mundial, Helga Nowotny, acaba de publicar un libro recomendable, con el título un poco paradójico de La fe en la inteligencia artificial, paradójico porque «fe» e «IA» son conceptos de registros humanamente alejados; la fe es de registro religioso, y la IA, de pura operatividad empírica. Pero tiene sentido si pensamos que nuestro fantasma es visto por mucha gente como una promesa de gran poder salvífico «digna de fe» –la IA «resolverá» muchos problemas; incluso hay quien cree que podría gobernar países y el mundo entero con más solvencia que los humanos–. Curiosamente, Nowotny explica que en un congreso de IA jugaron a redactar haikus y nos transcribe el suyo, que reproduzco no por su calidad poética –ahí no entro– sino por la buena síntesis conceptual: «Inteligencia artificial / Compañía humana / Algoritmos invisibles / El futuro exige sabiduría».
En efecto, lejos en el tiempo y en la profesión del poeta Elliot, el núcleo, la clave, el objeto del deseo de la tecnóloga es también ni más ni menos que la «sabiduría». El valor especial o añadido de ella es que lo vive desde dentro de la IA, como creadora de IA, que podría, como otros, hablar desde la soberbia del potencial múltiple de la tecnología y, en cambio, ve que el futuro «exige sabiduría», porque, a lo largo del libro, se muestra convencida de las limitaciones de la IA, de sus riesgos de control y abusos de todo tipo, lejos de la ética más elemental, enfrente de los cuales se hace indispensable reforzar la dimensión más profundamente humana de conocimiento, actitud y conducta; es decir, si se me permite, cuanto más progrese la IA más debe hacerlo la IN, la inteligencia natural, cuya mejor obra sería, ya desde el viejo Sócrates, el autoconocimiento, el diálogo, la sabiduría ética y el compromiso social. Remarco también el segundo verso, muy obvio, la «compañía humana», tan insustituible aunque haya quien piensa que la IA nos ahorrará depender de las otras personas en terrenos, por ejemplo, como la medicina: ¡qué error!, aunque se acepte la ayuda extraordinaria para la salud que puede representar en muchos órdenes –desde el diagnóstico hasta la intervención quirúrgica–, no sustituirá nunca la calidez de la atención y la comunicación médica humana, factor principal de confianza y estímulo de autosuperación para el paciente. Pero el penúltimo verso es de algún modo una gran denuncia, al estilo de las viejas denuncias proféticas: «algoritmos invisibles». En efecto, a diferencia de la blancura tan visible de la harina del panadero para hacer el pan, los algoritmos, que son el alma de la IA, están emboscados, perdidos en un lío de ordenadores, máquinas, cables, chips y microchips, que nadie más que sus operadores conoce. La falta de transparencia de muchos procesos de IA –alguien dirá: de todos– es una de las graves carencias éticas de nuestro fantasma, reconocida honorablemente –es justo decirlo– por muchos de sus creadores, que se esfuerzan en generar documentos y promover actitudes de autoexigencia ética y favorables a un control legal razonable para el despliegue y las aplicaciones de la IA.
[caption id="attachment_229261" align="alignnone" width="533"]

© Getty Images.[/caption]
“ Cuanto más progrese la IA más debe hacerlo la inteligencia natural (IN), y con ella, el diálogo, la sabiduría ética y el compromiso social”
Tecnología sólida y beneficiosa
La exigencia ética conecta directamente con la educación. La educación es un proceso de co-construcción ética, más allá de su presencia formal o curricular. Por eso, incluso otro acreditado tecnólogo, Max Tegmark, defiende explícitamente la necesidad de educar a nuestra juventud para que haga que la tecnología sea sólida y beneficiosa antes de cederle mucho poder. Porque detrás de la tecnología hay poder, o el poder está cada vez más bien equipado de tecnología, que puede ser invasiva de la intimidad y controladora de la libertad personal y colectiva. En este sentido, la urgencia de educar –no «contra» la tecnología, sino «en» la tecnología, y no solamente en sentido aplicativo, sino «comprensivo» o interpretativo o crítico– es indispensable. Contra la tecnología no, porque es absurdo, inútil y contraproducente, como se ha mostrado en la precipitada prohibición del ChatGPT a los estudiantes de la ciudad de Nueva York, en la que ya se habla de dar marcha atrás; la humanidad acelera con sus avances tecnológicos y contra la protesta –ingenua– de los luditas que aplastaban con mazas las máquinas de vapor en la Primera Revolución Industrial, hay que promover ahora la conciencia de las capacidades, las oportunidades y las ventajas múltiples de la IA (también para ayudar en el propio proceso educativo) y, a la vez, de las responsabilidades múltiples que concurren en su indispensable orientación ética, social y democrática. Responsabilidades tanto de los investigadores tecnólogos como de los ingenieros y operadores, como de los empresarios que contratan a unos y otros, como de los gobernantes democráticos que deben velar por un bien común, que incluye el respeto que la tecnología debe a todos los derechos humanos y al bienestar social y político de toda la población. Una expresión socarrona –escrita con gracia por Elvira Lindo justo después de Reyes– para recordar que detrás de la IA hay responsabilidad humana es hacer saber que «el algoritmo son los padres». Es decir, la IA ni es «mágica» ni solo repartirá regalos, porque, como en el caso de los Reyes, quien decide y compra los regalos no siempre acertados, bajo su responsabilidad, son los padres. Quien regala responsable o irresponsablemente los beneficios de la IA son unos padres y madres cargados de limitaciones, prejuicios y sesgos como todos nosotros, a los que reclamamos, desde la comunidad, que estén a la altura ética y social exigida por la magnitud y la pompa y gala del fantasma que han creado.
“ El poder está cada vez mejor equipado de tecnología, que puede ser invasiva de la intimidad y controladora de la libertad personal y colectiva. De aquí la urgencia de educar «en» la tecnología”
Para rizar el rizo del interés educativo por el asunto, permitidme que incorpore la idea de una joven filósofa brasileña, Márcia Tiburi, perseguida con graves amenazas por el bolsonarismo, que dice en una entrevista reciente: «El fascismo destruye la competencia lingüística de la gente. Implanta los clichés, implanta la repetición, implanta el odio como un sentimiento que la gente, destruida subjetivamente, considera bueno para la vida». He aquí una derivada educativa de primer orden para afrontar el riesgo de asociación de tecnología no ética (la que utilizó Trump con Cambridge Analytica) con el fascismo social y político: el reconocimiento y el compromiso educativo con la competencia lingüística –que es mucho más que la ortografía y la gramática, que también son necesarias– como herramienta para el diálogo crítico con cualquier adelanto tecnológico, más indispensable aún si, como este nuestro fantasma, está llegando a resultar invasivo de la sociedad y de las escuelas. El buen equipaje lingüístico, que tiene en la escuela un campo de trabajo privilegiado, es el primer paso de un pensamiento crítico que siempre, pero más aún en los tiempos que corren y con el fantasma de la IA corriendo por el mundo, es esencial para el bienestar personal y la convivencia social democrática.
Juan Manuel del Pozo
Doctor en filosofía y Exconsejero de Educación
y Universidades del gobierno de la Generalitat de Cataluña.
(Este artículo ha sido editado por la revista Perspectiva num. 420 (mayo-agosto 2023