Existe el temor de que la inteligencia artificial menoscabe la capacidad de procesar información al ofrecer información ya procesada. Pero estas herramientas llegaron para quedarse y hay que aprovecharlas. Un ejercicio con un robot conversacional permite desarrollar el procesamiento de información para formar personas más críticas y menos pasivas.
Samuel Altman, director ejecutivo de OpenAI, creadores de ChatGPT, asegura que las herramientas de inteligencia artificial (IA) facilitarán la vida de la humanidad, al asistirla en diversas tareas, algunas rutinarias y paradójicamente de inteligencia cero —como responder correos electrónicos redactados con plantillas—, y otras más complejas, que requieren mayor inteligencia e incluso creatividad. Los beneficios señalados por Altman pueden resultar controvertidos, como suponer que la IA va a hacer a la gente más saludable, pues proporcionará consejos a quienes no puedan pagar consultas médicas, lo que podría potenciar el fenómeno «doctor Google» (automedicarse según resultados en búsquedas de internet), o hacer a los usuarios más inteligentes, especialmente a los estudiantes, quienes tendrían acceso a información procesada más allá de la mera ubicación de páginas donde encontrar información para trabajar por sí mismos las respuestas.
Buena parte de la educación y el entrenamiento de la inteligencia consiste en aprender a procesar información, como ocurre con el entrenamiento en las herramientas de IA que desarrolla OpenAI. Aunque, a decir verdad, siempre se puede alegar que con estas herramientas el estudiante se libera para hacer un procesamiento más elevado de la información, es a ese procesamiento más elevado al que debe apuntarse a desarrollar.
Muchas consultas a charlas de IA recuerdan las consultas al oráculo de Delfos en la antigua Grecia. En aquellos tiempos, los griegos acostumbraban a visitar el templo de Apolo en Delfos, en busca de consejos y guías para aclarar el futuro, resolver problemas y desarrollar sus planes. Creían que una pitonisa del templo, en conexión con el dios Apolo, interpretaba señales y proporcionaba información privilegiada sobre el porvenir del consultante, un «usuario», se diría en estos tiempos. Las adivinaciones de Delfos se han hecho famosas por su carácter ambiguo y susceptible de interpretación arbitraria y contradictoria. Probablemente debido a diversos sesgos cognitivos, como los de confirmación, deseabilidad y optimismo —tal como sucede con los horóscopos—, los consultantes les daban una interpretación favorable a sus deseos, intereses y anhelos. El historiador Heródoto cuenta la famosa consulta de Creso, último rey de Lidia, quien deseaba saber si debía atacar Persia. El oráculo le respondió que, si emprendía una guerra contra los persas, destruiría un gran imperio. Creso interpretó que destruiría a los persas; pero, tras su ataque, el imperio destruido fue el de Creso.
Los chats de IA son como un oráculo de Delfos al alcance de la mano: un asistente y procesador de información que interpreta lo vertido en internet como si fuera una fuente de sabiduría. Unos toman las respuestas como verdades reveladas y otros, más cautos, como información que puede ser buena o mala.
Los asistentes de IA basados en modelos grandes de lenguaje, estilo ChatGPT, que se alimentan con información disponible en internet, pueden verse como una nueva versión de la «sabiduría de las multitudes» (wisdom of crowds). Esta sabiduría consiste en la creencia de que puede haber errores o ruido en los juicios de los individuos; pero, si se agrega la opinión de una multitud, los ruidos individuales se anulan unos a otros, si son independientes. Por ejemplo, al calcular el precio de una acción en la bolsa de valores, unos inversionistas lo sobreestimarán y otros lo subestimarán; pero los errores por arriba del precio se cancelarían con los errores por debajo, por lo que el promedio sería un buen cálculo del precio.
Según la hipótesis de los mercados eficientes, el mercado recoge información que se refleja en el precio promedio de la acción. Sin embargo, si los juicios y, por ende, los errores de los individuos no son independientes, entonces la multitud podría estar equivocada. Este error recuerda el viejo dicho: «Un millón de moscas no pueden estar equivocadas, coma…». El comportamiento de las moscas no es independiente entre sí, ni de su naturaleza o su biología. La falta de independencia es uno de los argumentos de quienes hablan de burbujas bursátiles. En las burbujas, las previsiones optimistas de los inversionistas no son independientes y se realimentan unas a otras, lo que produce una espiral alcista irreal.
Para algunos críticos estos modelos lo que hacen es «regurgitar» información de internet, con sus errores y sesgos; no es muy difícil constatar tales errores cuando se comparan con información veraz. Por ejemplo, le pregunté a ChatGPT por venezolanos que han coronado el monte Everest y respondió con nombres de escaladores españoles y latinoamericanos. No acertó uno. Pero, a decir verdad, este error no es de extrañar, dado que es un tema muy especializado: no hay una multitud de páginas en internet sobre escaladores venezolanos.
¿Por qué inventar o sintetizar una respuesta sin mucha base? ChatGPT aplicó la misma estrategia del cuento del niño en el examen de biología. El niño solo estudió a los platelmintos para el examen de biología y, a su pesar, le preguntaron sobre el elefante. ¿Qué hace el niño? Responde: «El elefante es un animal muy grande que tiene una cola pequeña y delgada como un platelminto, y hablando de platelmintos, el platelminto es un gusano que…». El niño suelta todo sobre el animal que sí estudió. Las herramientas de IA, en su estado actual, responden con lo que pueden asociar y sintetizar, que no necesariamente es correcto. Por eso es tan importante orientar las respuestas de estas herramientas con buenas indicaciones, verificar la información que aportan y ver la información con ojos críticos.
Algunos modelos de IA tienen capacidad para acceder a información actualizada y abierta en internet. Pero no necesariamente están construidos con toda la información disponible en línea, ni la consideran toda igual, sino que tienen fuentes preferidas y jerarquizadas, y han sido parametrizados con millones de variables para categorizar la búsqueda y sintetizar la información. Esta parametrización establece un marco de referencia que organiza y asocia la información, para elaborar una respuesta adecuada, como hace la mente humana.
El usuario puede darle al asistente indicaciones (prompts) para formular su consulta y establecer el marco de referencia de su interés, un contexto adecuado para orientar las respuestas. Por ejemplo, se le puede pedir al asistente que responda como un consultor experto, si se quiere una respuesta seria, o que responda como un humorista, si se quiere una respuesta más ligera; es decir, se puede definir el estilo o tono de la conversación, e incluso se puede especificar la estructura, por ejemplo, si se quiere la respuesta en forma de una lista o como un guion audiovisual. Estas indicaciones se asemejan, en ambientes de negocios, a los resúmenes (briefings) que se dan a los creativos o a las agencias de publicidad y mercadeo, cuando se les encarga un trabajo.
¿Conviene que los estudiantes utilicen las herramientas de IA para que procesen la información por ellos? Esta pregunta recuerda otra: ¿Es útil el aprendizaje de matemática más allá de las operaciones básicas? El común de las personas no aplicará fuera de la escuela operaciones matemáticas complejas y, como se burla un meme, los más avanzados terminarán usando en su trabajo solo Excel.
El astrofísico Neil deGrasse Tyson, sucesor de Carl Sagan en Cosmos, el legendario programa de divulgación científica, indica que el aprendizaje de herramientas matemáticas particulares no es importante por las herramientas en sí mismas; tampoco es importante si serían aplicables en el trabajo o en la vida cotidiana, sino que su uso es importante para el aprendizaje y el desarrollo del proceso mental de solución de problemas, de una manera precisa, rigurosa e incluso creativa: el aprendizaje matemático en la escuela enseña a pensar. Si se considera lo mucho que se equivocan las personas con la matemática en la escuela, campo en cual se pueden comprobar los resultados, deberían entender que no todo lo que piensan es correcto.
El argumento de Tyson podría extenderse a las ciencias sociales: es valioso el aprendizaje mental que permite manejar, sintetizar y contrastar conceptos y teorías sociales abstractas para desarrollar la habilidad de solucionar problemas sobre asuntos ambiguos, sin respuestas precisas, aunque debe reconocerse que tales conceptos y teorías pueden parecer alejados de la vida cotidiana.
Disponer de información procesada priva a los estudiantes del aprendizaje de la habilidad de procesamiento mental, un temor generalizado con la popularización de las herramientas de IA. No obstante, esas herramientas llegaron para quedarse. Aun si se considera que en su estado actual a menudo sintetizan información errónea o dan respuestas genéricas, es de esperar que sigan mejorando día a día, incluso hasta lograr que pasen la prueba de Turing: que sus respuestas sean totalmente indistinguibles de las que produce un ser humano. Por ejemplo, se consigue un resultado más humano al ajustar el grado de azar o ruido en la respuesta, sin degradar su coherencia semántica. El reto es imaginar cómo incorporar las herramientas de IA al procesamiento de información o al desarrollo del pensamiento, de la capacidad crítica y analítica de los estudiantes.
Un ejercicio con un robot conversacional
Los escritores tienden a pertenecer mayormente a dos grandes categorías: planificadores e improvisadores. Los primeros planifican y elaboran esquemas o mapas para desarrollar sus obras, para tener una estructura básica sobre la cual trabajar; los segundos se sientan y escriben según un proceso de descubrimiento.
Con esto en mente, diseñé un ejercicio para aprovechar la IA en el procesamiento crítico de información. La primera fase consiste en pedir a los estudiantes que elaboren una indicación sobre un determinado tema, como si diseñaran el esquema de un escritor planificador, pero con más detalle que especifique asunto, dimensiones del problema, estilo, tono de la respuesta, formato y número de palabras aproximado, etc. Esto no sería muy diferente de preparar un esquema para una pieza de escritura, sea de ficción o de trabajo, como un resumen, con algunos añadidos técnicos propios de las IA. Luego los estudiantes alimentan dos herramientas de IA con sus indicaciones para obtener respuestas, o la misma herramienta con idiomas distintos como español e inglés; como en la vida real, es conveniente enseñarles a no quedarse con una sola opinión, aunque se puede hacer consultando una sola herramienta. Esta es la fase de diseño o ingeniería de indicaciones (prompts).
En la segunda fase los estudiantes deben evaluar críticamente la respuesta de cada herramienta por separado y luego, comparativamente, comentar las fortalezas y debilidades de cada una de las respuestas y de las herramientas de IA (por ejemplo, hay unas que citan fuentes y otras que no, cuál es la calidad de las fuentes). El estudiante haría el proceso de corroboración de información que hace un verificador de hechos (fact-checker) o un periodista que valida sus fuentes y la información que recaba.
En el ejercicio se evalúa la indicación (prompt) como se haría con el planteamiento de un problema, en física o matemática, comprobando la completitud y pertinencia de las indicaciones y directrices a la IA. Como en matemática y física, el planteamiento es una parte esencial de los ejercicios. Algunos llegan a decir que el planteamiento lo es todo. Luego, no se evalúan las respuestas de las IA en sí mismas, sino que se evalúa el análisis crítico del estudiante de las respuestas de las IA: identificación de errores, sesgos, incoherencias, simplificaciones excesivas y demás debilidades que presentan las respuestas de las herramientas de IA.
Este ejercicio ayuda a la organización y la estructuración mental de los alumnos, pues favorece su proceso de pensamiento y su capacidad crítica y de análisis de información. Este enfoque permite utilizar las herramientas de IA, con sus fortalezas, limitaciones y debilidades, para desarrollar las capacidades críticas, mentales y de procesamiento de información de los estudiantes y formar personas más críticas y menos pasivas como consumidores de información.
Milko R. González-López, profesor del IESA.