Un nuevo método de aprendizaje automático que se inspira en la forma en que el cerebro humano parece modelar el mundo y aprender sobre él ha demostrado se capaz de dominar una serie de videojuegos sencillos con una eficacia impresionante.
El nuevo sistema, llamado Axiom, ofrece una alternativa a las redes neuronales artificiales que predominan en la inteligencia artificial (IA) moderna. Axiom, desarrollado por la empresa de software Verse AI, cuenta con conocimiento previo sobre cómo interactúan físicamente los objetos en el mundo del juego. Utiliza un algoritmo para modelar cómo espera que el juego actúe en respuesta a la entrada, que se actualiza en función de lo que observa: un proceso denominado inferencia activa.
El enfoque se inspira en el principio de la energía libre, una teoría que busca explicar la inteligencia mediante principios extraídos de las matemáticas, la física, la teoría de la información y la biología. Este principio fue desarrollado por Karl Friston, reconocido neurocientífico y director científico de Verses, empresa de computación cognitiva.
Desde su casa en Londres Friston me comenta por video que este enfoque podría ser especialmente importante para desarrollar agentes de IA, pues estos “deben aproximarse al tipo de cognición que vemos en cerebros reales”. Llegar ahí "no solo requiere la capacidad de aprender, sino también aprender cómo te comportas en el mundo”.
El enfoque convencional para aprender a jugar videojuegos implica entrenar redes neuronales mediante el aprendizaje de refuerzo profundo, que consiste en experimentar y ajustar sus parámetros en respuesta a retroalimentación positiva o negativa. Este enfoque puede producir algoritmos de juego excepcionales, pero requiere mucha experimentación para funcionar. Axiom domina varias versiones simplificadas de videojuegos populares como "conducir", "rebotar", "cazar" y "saltar", utilizando muchos menos ejemplos y demandando menor poder de cómputo.
“Los objetivos generales del enfoque y algunas de sus características clave coinciden con lo que considero los problemas más importantes en los que debemos centrarnos para alcanzar la IA general (IAG)”, afirma François Chollet, investigador de IA que desarrolló ARC 3, un estándar de medición diseñado para evaluar las capacidades de los algoritmos de IA modernos. Chollet también explora nuevos enfoques de aprendizaje automático y utiliza su estándar para evaluar la capacidad de los modelos para aprender a resolver problemas desconocidos, en lugar de simplemente imitar ejemplos previos.
“El trabajo me parece muy original, lo que es genial”, dice. “Necesitamos que más gente experimente con nuevas ideas alejándose del camino trillado de los grandes modelos del lenguaje (LLM) y los modelos de razonamiento lingüístico (LRM)”.
Una IA más parecida al cerebro
La IA moderna se basa en redes neuronales artificiales que se inspiran en el cableado cerebral, pero funcionan de forma fundamentalmente distinta. Durante la última década, el aprendizaje profundo (deep learning), un enfoque que utiliza redes neuronales, ha permitido a las computadoras realizar tareas impresionantes, como transcribir el habla, reconocer rostros y generar imágenes. Más recientemente, por supuesto, el aprendizaje profundo ha dado lugar a los grandes modelos de lenguaje que impulsan a chatbots, como ChatGPT, cada vez más locuaces y capaces.
Axiom, en teoría, promete un enfoque más eficiente para desarrollar IA desde cero. Podría ser especialmente eficaz para crear agentes que necesitan aprender eficientemente de la experiencia, afirma Gabe René, director ejecutivo de Verses. René comenta que una empresa financiera ha comenzado a experimentar con la tecnología de la compañía como una forma de modelar el mercado. "Es una nueva arquitectura para agentes de IA que pueden aprender en tiempo real y son más precisos, más eficientes y mucho más pequeños", afirma René. "Están diseñados literalmente como un cerebro digital".
Resulta irónico que, dado que Axiom ofrece una alternativa a la IA moderna y al aprendizaje profundo, el principio de la energía libre se haya inspirado originalmente en el trabajo del informático británico-canadiense Geoffrey Hinton, galardonado con el premio Turing y el Premio Nobel por su trabajo pionero en el aprendizaje profundo. Hinton fue colega de Friston en el University College de Londres durante años.
Para más información sobre Friston y el principio de la energía libre, recomiendo ampliamente este artículo de WIRED de 2018. El trabajo de Friston también influyó en una nueva y emocionante teoría de la conciencia, descrita en un libro reseñado por WIRED en 2021.
Artículo publicado originalmente en inglés en WIRED, adaptado por Manuel de León.
Somos EL TESTIGO. Una forma diferente de saber lo que está pasando. Somos noticias, realidades, y todo lo que ocurre entre ambos.
Todo lo vemos, por eso vinimos aquí para contarlo.