Local News

Los nuevos alquimistas de la Inteligencia Artificial

30 October 2024
This content originally appeared on Listín Diario.
Promote your business with NAN

En la antigüedad los alquimistas intentaron descubrir los secretos de la transmutación de la materia y la piedra filosofal. Hoy en día existe una nueva clase de alquimistas que, mediante el desarrollo de algorítmicos de Inteligencia Artificial, buscan descifrar patrones y estructuras complejas dentro de los datos de la realidad, logran avances asombrosos que permiten que las máquinas aprendan a resolver problemas complejos y a comunicarse con los humanos. Aquí exploro el legado de esas figuras científicas de las últimas décadas, cuatro de ellos, en un acto sin precedentes, reconocidos con los Premios Nobel 2024.

El primer paso clave en la alquimia de la IA moderna fue la obra de Vladimir Vapnik y Alexey Chervonenkis, en la década del 1980. Estos matemáticos rusos, migrados a los Estados Unidos y trabajando para Bell Lab, popularizaron la “Teoría Estadística del Aprendizaje (SLT)”. Este avance teórico permitió comprender cómo las maquinas pueden aprender de los datos de la realidad para crear patrones y minimizar el riesgo de errores al aplicar lo aprendido, aportando al criterio de que la IA simula la inteligencia humana. SLT dio nacimiento al concepto de “Machine Learning” que cambió el paradigma predominante de la IA simbólica, y le permitió salir de un largo período de estancamiento, conocido como el “invierno de la IA” (décadas de 1970 y 1980).

El siguiente gran alquimista de la IA fue Geoffrey Hinton, de la Universidad de Toronto, quien en 1986 co-desarrolló el algoritmo de “retropropagación” de las redes neuronales artificiales (ANN) de varias capas que simulan el funcionamiento del cerebro. Este algoritmo permitió que las ANN ajustaran sus parámetros de manera óptima en el proceso de entrenamiento, resolviendo problemas que antes eran intratables. Gracias a Hinton, nace el “deep learning” y sus grandes aportes al reconocimiento de imágenes y al procesamiento del lenguaje natural (NLP).

En 1998, Yann LeCun, de la Universidad de Nueva York, introdujo las Redes Neuronales Convolucionales (CNN) con su aporte revolucionario a la visión computacional, al reconocimiento de imágenes, la clasificación de objetos, el análisis de video, que emulan el proceso de percepción humana. Esta innovación ha tenido aplicaciones directas en tecnologías como los automóviles autónomos y los sistemas de seguridad

Al principio de la década del 2000 el nuevo alquimista Yoshua Bengio, del Montreal Institute for Learning Algorithms, trabajó extensamente en métodos de aprendizaje no supervisado y representaciones distribuidas, investigando cómo las ANN profundas aprenden representaciones complejas a diferentes niveles. Su enfoque en el aprendizaje que usa la Big Data ha sido clave en el desarrollo de modelos avanzados de la IA Generativa.

En 2016, el mundo observó con asombro cómo una IA, desarrollada por Demis Hassabis y su equipo de DeepMind, derrotó a uno de los mejores jugadores humanos de Go, un juego increíblemente complejo. El sistema, llamado AlphaGo, fue capaz de aprender estrategias a través del aprendizaje por refuerzo, tomado de la psicología conductista, aplicado a las ANN profundas, lo que marcó un hito en la capacidad de la IA para aprender y adaptarse de manera autónoma, aplicándose a problemas complejos de las ciencias naturales.

En 2017, los nuevos alquimistas de GoogleBrain, liderados por Ashish Vaswani, publicaron el influyente artículo titulado "Attention Is All You Need", sentando las bases para el desarrollo del mecanismo que emula la atención cognitiva y la arquitectura “Transformer” para las ANN profundas. Estos modelos "prestan atención" a las partes más relevantes de una secuencia de texto, las procesan en paralelo, las memorizan y contextualizan de manera más eficiente. “Transformers” es considerado uno de los avances más significativos en la evolución de la IA.

En 2020, la alquimia genial de Ilya Sutskever y su equipo científico en OpenAI, bajo el mando de Sam Altman, aplicaron la arquitectura Transformers produciendo GPT-3 (predecesor de ChatGPT 4o), un modelo de lenguaje a gran escala (LMM) pre-entrenado con la Big Data de la WEB. Con sus 175 mil millones de parámetros GPT-3 revolucionó el NLP, imitando el lenguaje humano de manera sorprendente. ¡A partir de entonces el mundo de la IA ha sido diferente!

El impacto de la IA alcanzó un nuevo clímax en este 2024, cuando la Academia Sueca, en un hecho inusitado, otorgó el Premio Nobel de Física a Geoffrey Hinton y John J. Hopfield por sus trabajos en redes neuronales profundas, por haber sentado las bases para el aprendizaje de maquina moderno. De igual manera se otorgó el Nobel de Química a Demis Hassabis y John Jumper galardonados por el desarrollo de AlphaFold2, derivado de AlphaGo, que predice la estructura de las proteínas, resolviendo un problema de décadas que ha transformado el campo de la biología. Estos reconocimientos son un claro ejemplo de cómo la IA ha alcanzado nuevas fronteras en la aplicación a diversas áreas de la ciencia y la economía. 

Coordinador Maestría en Ciencia de Datos del INTEC