IA. Imagina el Armagedón como herramienta de marketing disruptivo

La IA está por todas partes y no hay día donde no se nos haga ver de alguna forma lo útil, ‘inteligente’ y/o Peligrosa que se puede volver esta nueva tecnología. Esta mitología de imaginar el ascenso de un inteligencia artificial que nos pueda sustituir es una forma de promocionar la IA mediante marqueting disruptivo perootambién una forma de intentar empequeñecer la inteligencia humana. Parece haber una profecía donde la nueva IA no va a tardar en superar la inteligencia humana, cosa que a la luz de la tecnología humana actual es más que improbable, pero a los medios de comunicación y al cine le encantan los mesías y anticristos. No obstante, puesto que no sabemos como programar o hacer aprender a una máquina para que entienda de verdad algo, lo del ascenso de las máquinas pensantes o Skynet va a tener que esperar un poco aunque el márketing nos lo venda así. Veamos por qué.

Los últimos avances en aprendizaje automático artificial parecen incomprensibles por la jerga utilizada de perceptrones, redes neuronales: convolucionales o recurrentes, aprendizaje profundo, transformers, big data e IA generativa, con Papa incluido. Pero a la luz de lo que la prensa se hace eco sobre el peligro que nos acecha, lo que nos tiene que quedar claro, son varias cosas:

Primero, ChatGPT-X (Generated Pretraining Transformer) o cualquier AI entrenada y fijada no entiende lo que le decimos, aunque lo parezca. Es capaz de interpretar correctamente lo que le decimos en muchos casos gracias a la ciencia de la probabilidad y la enorme masa de textos humanos que maneja, pero no entiende. Por ejemplo, si le preguntamos que qué fue primero el barco, el coche o el avión, responde un poco raro, el coche. Esto irá mejorando sin duda, pero no entiende, busca cadenas por probabilidad, pero las encuentra porque la red neuronal se ha entrenado con billones de parámetros y casi todo el texto producido por la humanidad conocido hasta el momento de fijar el modelo X.

Segundo, dependen mucho de los macrodatos con los que se la enseñe, pues no darán respuestas que no estén en estos, combinando o extrayendo. En ese aspecto, sí se parece a algo nosotros, dependemos de lo que nos enseñen, con la salvedad que nosotros aprendemos con muchos menos textos o datos, aunque en más tiempo, pero, por contra, o a favor, tenemos un conocimiento del mundo real. Lo que sí que parece que hace bien es encontrar patrones muy rápido, aunque esta muy vía inductiva tiene el riesgo de dar muchos falsos positivos.

Tercero, es muy útil. Bien aplicada y dentro de los límites de sus posibilidades, si se la enseña con los datos adecuados, que es lo más caro, y se les ajusta más finamente, tiene un sin fin de aplicaciones en ciencia y la vida cotidiana. Una de ellas es la IA generativa, la más sorprendente, que no es más que darle la vuelta al modelo de reconocimiento, por ejemplo, al de imágenes. Si una IA puede reconocer un perro o la ciudad de Nueva York, entrenada y dada la vuelta, puede generar distintas variaciones relativamente originales de un perro en Nueva York o cualquier cosa que se nos ocurra, buena o mala. Los peligros están en como la utilicemos, aunque posiblemente más en como se difundan sus resultados.

Tampoco hay que olvidar que somos los humanos los que hemos creado estas herramientas computacionales, cualquier humano medio, tiene más conocimiento y entendimiento del lenguaje que cualquier modelo grande de lenguaje IA (LLMs del inglés Large Languaje Models). Eso sin contar que cualquier humano, e incluso animal, tiene más conocimiento del mundo real que cualquier IA, aunque pueda ser más rápida en ciertas tareas de reconocimiento de patrones. Dar por hecho que será inevitable que alcancen inteligencia general o capacidades humanas no ayuda que los humanos produzcan nuevos descubrimientos en esta línea. Este tipo de profecías, ya sean prometéicas o armagedónicas no aumentan las posibilidades de que ocurran. Para comprender que ha pasado para que tengamos tantas expectativas sobre el aprendizaje de las máquinas, veamos como ha sido la evolución de esta tecnología desde sus inicios.

LLMs impresive sometimes fails AI GAI
Los LLMs como GPT dependen de como se le hagan las preguntas, funcionan mejor proporcionándoles contexto. Además, es interesante preguntarles que razonen paso por paso para que resuelvan bien problemas de aritmética, por ejemplo. Como es una herramienta inductiva no tiene sentido común ni conocimiento intuitivo del mundo como sí lo tendría una persona. Se hace raro las preguntas que no es capaz de responder en la imagen sacada de la charla de Royal Institution, Pr, Michael Wooldridge es Director de Foundational AI Research y Turing AI World-Leading Researcher Fellow en el Alan Turing Institute Alun Turing Institute.

El camino hasta los modelos de IA actuales ha sido largo. Primero se conjeturaron las redes neuronales al ver McCullock y Pitts que las neuronas eran como circuitos eléctricos. Posteriormente, en 1960 se consiguió la simulación por software de las redes neuronales. Ya en los 1980 se vio que serían necesarios enfoques de aprendizaje profundo, macrodatos para configurar esas redes neuronales y por último mucha potencia de computación. Por poner un ejemplo, en estos años la cantidad de parámetros de las redes neuronales era de cuatro órdenes de magnitud menor que en 2020.

En 2005 se logró el reconocimiento de caras y se avanzó en el diagnóstico de tumores. Poco después, en 2012, se vio que había un tipo de procesador óptimo para hacer este tipo de cálculo de redes neuronales y hacerlo mucho más rápido, las GPUs. La potencia de cálculo y la RAM fue mejorando mucho, y se desarrollaron redes de reconocimiento de secuencias que mejoraron mucho la traducción y el reconocimiento de voz. Es la época de los asistentes de voz que eran capaces de reconocer nuestras instrucciones simples.

Pero fue en 2017 cuando se produjo otro punto de inflexión al publicarse un artículo seminal donde se proponía una nueva arquitectura denominada Redes de atención o ‘transformers’ que mejoraba mucho los resultados anteriores en todos los aspectos. Los Transformers permiten el entrenamiento de las redes con datos que no hayan sido etiquetados por humanos, es decir, permiten el autoaprendizaje a partir de extensos volúmenes de datos. Además, son óptimos para secuencias de datos en el tiempo, como datos de texto, audio o vídeo. De hecho, es la tecnología que está detrás del entrenamiento automático con grandes bases de datos sin revisión o etiquetación humana, que era lo que hacía caro el proceso.

Las características emergentes de lo que son capaces de hacer los grandes modelos de lenguaje o LLMs como GPT basados en la tecnología Trasformer dependen de los billones de parámetros con los que son configurados o entrenados. Por ejemplo, con 8 billones de parámetros son capaces de traducir, resumir, mejor entendimiento del lenguaje, preguntas de código de programación. El razonamiento paso por paso y los tipos de cosas que puede responder satisfactoriamente mejoran mucho con el aumento del número de parámetros de la red Transformer hasta los millones de parámetros. No se entiende como emerge la simulación de estas cualidades, por lo que se confía que aumentando más los parámetros hasta los trillones del cerebro humano pueda superar el cerebro humano. Imagen compuesta de la charla de Royal Institution, Dr, Mirella Lapata. Alun Turing Institute.

Los modelos generativos de lenguaje se basan en las mismas técnicas de aprendizaje profundo con Transformers, pero se le da la vuelta a la tortilla. Una vez red entrenada para reconocer texto, por ejemplo, puede a su vez ser entrenada para generar texto nuevo a partir de la macrobase de datos codificada en la red neuronal. En el caso de las imágenes solo necesita un paso más, parte de una imagen base la distorsiona para que sea irreconocible y a partir de ella vuelve a reelaborarla con los datos de la red, se obtiene así una imagen nueva que puede imitar un estilo de los originales con los que ha aprendido. Por supuesto, esto se volverá más avanzado con el tiempo hasta donde de sí la combinación con cierto grado de aleatoriedad.  

La cantidad y calidad de los datos con los que se entrena el modelo es una de las variables fundamentales. Los modelos de lenguaje grandes o LML tipo GPT-3 tienen como 175 billones de parámetros constituyendo la red neuronal y se le ha entrenado con 500 billones de palabras. Este volumen de palabras le llevaría a un humano 10000 años de lectura, desde luego a un humano no le hacen falta tantos textos para llegar a una comprensión real del lenguaje. Hay que apuntar también que si no tienen suficientes datos y no hay suficientes parámetros, no obtienen sistemas capaces.

La IA debería ser una oportunidad para no ignorar los problemas filosóficos de fondo, sino para afrontarlos y poder darles respuesta, nosotros los humanos. Por lo que respecta a las utilidades del aprendizaje artificial, son muchísimas, y más que veremos y absolutamente fascinantes. Por eso será nuestro deber y el de las instituciones gubernamentales garantizar su utilización para el bien de todos y protejer de los efectos colaterales que todo lo nuevo puede traer. Seguiremos hablando sin duda, de este tema.

REFERENCIAS

Attention Is All You Need. Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N. Gomez, Łukasz Kaiser, Illia Polosukhin.

LeCun, Yann; Léon Bottou; Yoshua Bengio; Patrick Haffner (1998). «Gradient-based learning applied to document recognition». Proceedings of the IEEE 86 (11): 2278–2324.

Ciresan, Dan; Ueli Meier; Jonathan Masci; Luca M. Gambardella; Jurgen Schmidhuber (2011). «Flexible, High Performance Convolutional Neural Networks for Image Classification». Proceedings of the Twenty-Second international joint conference on Artificial Intelligence-Volume Volume Two 2: 1237–1242.

AI: Grappling with a New Kind of Intelligence.

Una nueva inteligencia ha irrumpido en la corriente principal, provocando un entusiasmo eufórico, así como un miedo abyecto. Explore el panorama de futuros posibles en un nuevo mundo desafinate de máquinas pensantes, con los líderes a la vanguardia de la inteligencia artificial. La serie Big Ideas cuenta con el apoyo parcial de la Fundación John Templeton. Participantes: Sébastien Bubeck, Tristan Harris (computacional muy crítico con los posibles riesgos sociales de la IA como la desinformación), Yann LeCun (científico especializado en IA y jefe de IA en meta)

Deja un comentario