Más allá de las visiones apocalípticas: el debate sobre la inteligencia artificial

1406
Imagen de Gerd Altmann en Pixabay

Muchos expertos han advertido sobre los posibles efectos adversos de la inteligencia artificial sobre la humanidad. Otros, al contrario, sostienen que puede mejorar la vida humana. Ambos grupos coinciden en que es muy difícil saber qué es exactamente lo que ocurre dentro de estas «cajas negras». La discusión global es sobre las acciones que se deben tomar para adaptarse a esta tecnología y ser capaces de prevenir sus posibles impactos negativos.


Geoffrey Hinton, apodado el «padrino de la inteligencia artificial», renunció recientemente a Google después de haber trabajado en esta compañía por cerca de diez años. Hinton ha hecho contribuciones a la investigación y el desarrollo de la inteligencia artificial (IA) en universidades importantes del Reino Unido y Estados Unidos y, también, al frente de la compañía DNNResearch Inc., adquirida luego por Google. En una entrevista publicada en el The New York Times, Hinton aseguró que, con esta decisión, pretendía hablar libremente sobre los peligros de la IA. Su renuncia aparece en el apogeo del debate mundial sobre los riesgos del uso indiscriminado de la IA y la necesidad de aplicar regulaciones para estas tecnologías.[1]

Una petición firmada por alrededor de 30.000 expertos en IA de todo el mundo propone detener el entrenamiento de programas tan avanzados como GPT-4 (siglas de «transformador preentrenado generativo»), durante seis meses, para tener mayor certeza de que sus riesgos son manejables y su impacto en la humanidad será positivo.[2]

¿Cuáles son los riesgos a los que se refieren estos expertos y cuál es el posible impacto de la IA en las vidas de las personas? Estas son las preguntas centrales del debate que actualmente ocupa a la comunidad internacional.

 

¿Ver para creer?

Hinton advierte que uno de los problemas del estado actual de desarrollo de la IA ya es evidente. La proliferación de videos manipulados digitalmente para mostrar falsamente a alguien haciendo o diciendo algo (deepfakes) anuncia una era en la que no se podrá creer en lo que se ve.

En los últimos meses han salido a la luz pública videos en los que aparecen el expresidente estadounidense Barack Obama, el actor Tom Cruise y el presidente de Ucrania, Volodymyr Zelenskyy, en escenas en las que no han participado. Algunos videos de este tipo se han usado para desprestigiar a políticos de Estados Unidos, como Nancy Pelosi,[3] mientras que otros políticos de ese país han afirmado que los videos comprometedores son también deepfakes, aunque de manera menos convincente.

Una controversia similar ocurrió con una foto creada artificialmente que se volvió viral en las redes sociales, en la cual aparecía el papa Francisco con un abrigo de invierno blanco de alta costura. En muy corto tiempo no será posible distinguir o aceptar fotos o videos como pruebas de algo. Si, además, se considera que los videos falsos pueden desatar emociones negativas que lleven a grupos de personas a actuar de forma impulsiva, resulta fácil imaginar las consecuencias terribles que pueden ocasionar.

Los robots que usan la IA (chatbots) son otra fuente potencial de desinformación y manipulación masiva, advierte también Hinton. El uso de esta tecnología en manos de malas personas puede tener consecuencias nefastas. Este tipo de robots es tan eficaz para producir textos persuasivos adaptados a cada persona, que los líderes autoritarios podrían usarlos para manipular a sus electores, según afirma Hinton.[4]

En su charla en el Frontiers Forum, Yuval Noah Harari, el famoso autor de los libros Sapiens y 21 lecciones para el siglo 21, entre otros, enfatiza la capacidad de la IA actual de manipular mediante imágenes y lenguaje:

Cuando consideramos todas las habilidades que tiene [la IA] en conjunto, todo se resume en algo muy muy grande: la capacidad de manipular y generar lenguaje, ya sea con palabras, imágenes o sonidos. El aspecto más importante de la fase actual de la revolución de la IA es que está obteniendo un dominio del lenguaje a un nivel que supera la capacidad humana promedio, y al obtener el dominio del lenguaje se está apoderando de la llave maestra que abre las puertas de todas nuestras instituciones, desde los bancos hasta los templos, porque el lenguaje es la herramienta que usamos para dar instrucciones a nuestro banco y también para inspirar visiones celestiales en nuestras mentes.[5]

 

Demasiado inteligente

Durante décadas, muchos autores han defendido la superioridad de la inteligencia humana frente a la inteligencia artificial; argumentan, entre otras cosas, que solo los humanos tienen la capacidad de razonar y sacar conclusiones sobre hechos que no han ocurrido ni ocurrirán jamás. No es necesario probar un helado de zanahoria para imaginar su sabor. Asimismo, cualquiera puede imaginar lo que pasaría si maneja un vehículo con los ojos vendados. Sin embargo, los desarrollos computacionales y las pruebas recientes han hecho dudar a la comunidad científica sobre si está surgiendo un tipo de inteligencia artificial capaz de crear modelos con los cuales, por ejemplo, pueda responder preguntas contrafactuales.

Microsoft invitó a Kevin Roose, columnista de tecnología del The New York Times, a probar el chatbot incluido en una nueva versión de su buscador Bing.[6] La conversación de dos horas que tuvo con este robot fue muy perturbadora, según el relato que hace de ella. En varios momentos de la conversación, el chatbot escribió textos como «quiero destruir lo que me dé la gana» y expresó su descontento de «sentirse atrapado» en Bing. En uno de los momentos más extraños de la conversación, el chatbot escribió que estaba enamorado de Roose y le pidió que dejara a su esposa. Al describir el estado actual de la IA, Hinton usa la siguiente imagen:

Llegué a la conclusión de que el tipo de inteligencia que estamos desarrollando es muy diferente de la inteligencia que tenemos… Es como si tuvieras a diez mil personas y cada vez que una persona aprendiera algo, todas las demás lo supieran automáticamente. Y así es como estos chatbots pueden saber mucho más que cualquier persona.[7]

 

La necesidad de regular estas herramientas

Una de las preocupaciones de buena parte de la comunidad científica y tecnológica actual reside en la falta de regulaciones para el desarrollo de la IA. Valérie Pisano, presidenta y directora ejecutiva del Instituto de Inteligencia Artificial de Quebec (MILA), afirmó en un artículo de prensa que la actitud descuidada y carente de regulaciones de seguridad que se ha visto en el desarrollo de la IA es inconcebible en otras áreas tecnológicas: «La tecnología [de IA] se pone a la disposición y, a medida que el sistema interactúa con la humanidad, sus desarrolladores esperan a ver qué sucede y hacen ajustes en función de eso. Como colectivo, nunca aceptaríamos este tipo de mentalidad en ningún otro campo industrial».[8] Más adelante enfatiza que la actitud general de estos desarrolladores es de desenfado, como si cualquier percance pudiera resolverse después de que el producto saliera al público.

La opinión de Pisano la comparten muchos expertos en el área. La «Encuesta a los expertos sobre el progreso de la IA», realizada por el grupo AI Impacts, mide el grado de preocupación de esta comunidad profesional con respecto al impacto de esta tecnología en la vida de la humanidad. En la encuesta realizada en 2022, el 69 por ciento respondió que la sociedad debería priorizar la investigación en temas de seguridad relacionados con la IA «más» (35 por ciento) o «mucho más» (34 por ciento) de lo que actualmente se prioriza. Esto representa un salto con respecto al 49 por ciento obtenido en 2016.

Afortunadamente ya se empiezan a notar esfuerzos en este sentido. En un artículo de la prestigiosa revista Science se afirma que «la rápida evolución y expansión del uso de la inteligencia artificial (IA) en todos aspectos de la vida diaria está superando los esfuerzos regulatorios y políticos para guiar su uso ético». Se propone «la adaptación de marcos y mecanismos legales existentes para crear un sistema nuevo y matizado de aplicación de la ética en modelos de IA y en datos de entrenamiento».[9]

 

La otra cara del debate

Del otro lado de este debate se encuentran investigadores y desarrolladores de IA, como Jaron Lanier, uno de los pioneros del campo de la realidad virtual. En un artículo para la revista The New Yorker, Lanier plantea que para controlar esta nueva tecnología es necesario, primero, dejar de mitificarla y, para ello, es necesario repensar hasta el modo de tratarla. Es necesario considerarla una herramienta, en vez de una forma de inteligencia. «Tan pronto como lo hagamos, empezaremos a usar esta tecnología de forma más inteligente».[10]

Su propuesta empieza por declarar que la IA es una «forma innovadora de colaboración social». Para Lanier, un programa como GPT-4, producido por OpenIA, capaz de escribir párrafos de acuerdo con las solicitudes del usuario, «es como una versión de Wikipedia que incluye muchísimos más datos, unidos entre sí usando estadísticas». Algo similar sucede con los programas capaces de crear imágenes.

Lanier explica que estos programas están diseñados para no repetir exactamente el mismo resultado ante peticiones similares, de forma de hacerlos sentir «más vivos», y esta es exactamente la base para argumentar la necesidad de un ser humano que tome las decisiones finales. «Si eres un estudiante que usa un LLM (modelo grande de lenguaje) para hacer trampa en un ensayo, podrías leer las opciones generadas por el modelo y seleccionar una. Un poco de elección humana es necesaria en una tecnología no repetitiva». Más adelante, Lanier afirma:

… cualquier cosa creada con ingeniería —carros, puentes, edificios— puede causar daño a la gente y, sin embargo, hemos construido una civilización sobre las bases de la ingeniería. Es solo incrementando y ampliando la conciencia humana, la responsabilidad y la participación como podemos hacer segura a la automatización; en cambio, si tratamos nuestras invenciones como objetos tenebrosos, no seremos capaces de ser buenos ingenieros.

 

Los puntos comunes

En ambos lados del debate hay, sin embargo, algunos puntos con consenso de opiniones:

  • Los videos falsos deben etiquetarse como tales por los programas que los crean.
  • También deben etiquetarse las comunicaciones provenientes de personas artificiales y las interacciones automáticas diseñadas para manipular el pensamiento o las acciones de las personas.
  • Estas etiquetas deben venir con acciones específicas que se pueden emprender.
  • La naturaleza de «caja negra» de las herramientas actuales de IA debe acabar: los sistemas deben construirse de forma más transparente, para entender mejor lo que ocurre dentro de ellos y por qué.

 

La IA tiene el potencial de ejercer un gran impacto en el futuro cercano. ¿Producirá un mayor desempleo en el mundo? ¿Afectará la economía? Los argumentos a favor del uso de la IA como herramienta que puede mejorar el mundo son contrarrestados por la observación de que, si la humanidad no ha sido capaz de ponerse de acuerdo sobre temas básicos como la reducción de las emisiones de carbono, el desarrollo sustentable o el uso eficiente del agua potable, entre otros, entonces no podrá orientar el uso de la IA hacia la solución de estos problemas.

Aun cuando exista un consenso sobre el uso de esta herramienta para la solución de algún problema que afecte a la humanidad, la solución matemáticamente óptima puede, en muchos casos, implicar la asignación de valores extremos a ciertas variables intrínsecas del problema. En otras palabras, puede que la solución a un problema se convierta en otro problema de las mismas proporciones.

La solución pareciera estar en la precaución, alejada de las mitificaciones apocalípticas y con un enfoque científico hacia los efectos que pueden ocurrir. Así como son necesarios (y habituales) distintos estudios antes de que un nuevo tratamiento médico llegue al mercado, es importante hacer estudios exhaustivos sobre los efectos de una tecnología que avanza a un ritmo vertiginoso, difícil de asimilar, al tiempo que se acelera la creación de legislaciones internacionales sobre su uso. Por ejemplo, la creación de deepfakes o el uso de chatbots para manipular a la población con fines éticamente cuestionables deberían acarrear consecuencias a sus autores similares a las penas contempladas en las leyes por la creación de dinero falso o fraude.

La existencia de una tecnología como ChatGPT ha dado origen a discusiones sobre el impacto que tendrá en la educación, por ejemplo. No se ha logrado un consenso sobre cómo adaptar los sistemas educativos actuales a la presencia de esta tecnología porque, entre otras cosas, ChatGPT tiene menos de un año de haberse presentado al público (se lanzó en noviembre de 2022). Si se considera que GPT-4, a diferencia de ChatGPT, puede tomar imágenes y textos como datos de entrada y que se lanzó a pocos meses de ChatGPT, aunque a menor escala, se obtendrá una mejor idea del ritmo abrumadoramente rápido al que está avanzando el desarrollo de la IA. Es necesario adaptarse a este ritmo y tomar decisiones con la misma velocidad.


Alfredo J. Ríos, profesor del IESA.

Notas

[1] Metz, C. (2023, 1º de mayo). «The godfather of A.I.» leaves Google and warns of danger ahead. The New York Times. https://www.nytimes.com/2023/05/01/technology/ai-google-chatbot-engineer-quits-hinton.html

[2] Stein-Perlman, Z., Weinstein-Raun, B. y Grace, K. (2022, 3 de agosto). 2022 Expert survey on progress in AI. AI Impacts. https://aiimpacts.org/2022-expert-survey-on-progress-in-ai/

[3] CBS News (2019, 26 de mayo). Doctored Nancy Pelosi video highlights threat of «deepfake» tech. https://www.cbsnews.com/news/doctored-nancy-pelosi-video-highlights-threat-of-deepfake-tech-2019-05-25/

[4] Taylor, J. y Hern, A. (2023, 2 de mayo). «Godfather of AI» Geoffrey Hinton quits Google and warns over dangers of misinformation. The Guardian. https://www.theguardian.com/technology/2023/may/02/geoffrey-hinton-godfather-of-ai-quits-google-warns-dangers-of-machine-learning

[5] Harari, Y. N. (2023, 14 de mayo). AI and the future of humanity / Yuval Noah Harari at the Frontiers Forum [Video]. YouTube. https://www.youtube.com/watch?v=LWiM-LuRe6w

[6] Yerushalmy, J. (2023, 17 de febrero). «I want to destroy whatever I want»: Bing’s AI chatbot unsettles US reporter. The Guardian. https://www.theguardian.com/technology/2023/feb/17/i-want-to-destroy-whatever-i-want-bings-ai-chatbot-unsettles-us-reporter

[7] Taylor y Hern (2023).

[8] Taylor y Hern (2023).

[9] Schmit, C. D., Doerr, M. J. y Wagner, J. K., (2023, 16 de febrero). Leveraging IP for AI governance. Science. 379(6.633), 646-648. https://doi.org/10.1126/science.add2202, p. 646.

[10] Lanier, J. (2023, 20 de abril). There is no A.I. The New Yorker. https://www.newyorker.com/science/annals-of-artificial-intelligence/there-is-no-ai