viernes, junio 20, 2025
spot_img
spot_img

Editoriales

Investigadores desarrollan un método para que los modelos de IA se autoentrenen

Los grandes modelos de lenguaje (LLM) modernos pueden escribir hermosos sonetos y código elegante, pero carecen incluso de una capacidad rudimentaria para aprender de la experiencia. Investigadores del Instituto Tecnológico de Massachusetts (MIT) diseñaron una forma de que los LLM sigan mejorando ajustando sus propios parámetros en respuesta a nueva información útil.

Se trata de un paso más hacia la creación de modelos de inteligencia artificial que aprendan de forma continua, un objetivo que se persigue desde hace tiempo y que será crucial si se desea que las máquinas imiten cada vez más fielmente la inteligencia humana. Mientras tanto, podría proporcionarnos chatbots y otras herramientas de IA más capaces de incorporar nueva información, como los intereses y preferencias del usuario.


A man with glasses is writing in a notebook, sitting at a table with a serious face. Stylish home interior
Escritores están protestando contra la IA en TikTok

Escritores y escritoras tradicionales e independientes están inundando #WritersTok con videos editando sus manuscritos para refutar las acusaciones de uso generativo de IA y mostrar a los lectores su muy humano proceso.


SEAL, la propuesta del MIT

El concepto, denominado modelos lingüísticos autoadaptativos (SEAL, por Self-Adapting Language Models), consiste en hacer que un LLM aprenda a generar sus propios datos sintéticos de entrenamiento y actualice su procedimiento en función de la información que reciba.

"La idea inicial era explorar si los tokens, unidades de texto alimentadas a los LLM y generadas por ellos, podían provocar una potente actualización de un modelo", explica Jyothish Pari, estudiante de doctorado del MIT que participa en el desarrollo de SEAL. Pari indica que el objetivo era comprobar si el resultado de un modelo podía utilizarse para entrenarlo.

Adam Zweigler, investigador universitario del MIT que también trabaja en SEAL, añade que, aunque los modelos más recientes pueden "razonar" su camino hacia mejores soluciones mediante inferencias más complejas, el propio modelo no se beneficia de ese razonamiento a largo plazo. Por el contrario, SEAL genera nuevos conocimientos y luego los incorpora a sus ponderaciones o parámetros.

Por ejemplo, ante una afirmación sobre los retos que enfrentó el programa espacial Apolo, el modelo generó nuevos pasajes que intentaban describir las implicaciones de dicha afirmación. Los investigadores lo compararon con la forma en que un estudiante humano escribe y revisa sus apuntes para facilitar su aprendizaje.

A continuación, el sistema actualizó el modelo utilizando esos datos y comprobó qué tan bien era capaz el nuevo modelo de responder a una serie de preguntas. Finalmente, esto proporcionó una señal de aprendizaje por refuerzo que ayudó a guiar al modelo hacia actualizaciones que mejoran sus capacidades generales y lo ayudan a seguir aprendiendo.

Los investigadores probaron su método en versiones pequeñas y medianas de dos modelos de código abierto: Llama, de Meta, y Qwen, de Alibaba. Afirman que el método debería funcionar también con modelos de frontera mucho más grandes.



Seguir enriqueciendo a los modelos de IA

Los investigadores evaluaron el método SEAL con texto y con una prueba de referencia llamada ARC, que mide la capacidad de un modelo de IA para resolver problemas de razonamiento abstracto. En ambos casos, observaron que SEAL permitía a los modelos seguir aprendiendo mucho más allá de su entrenamiento inicial.

Pulkit Agrawal, profesor del MIT que supervisó el trabajo, señala que el proyecto SEAL aborda cuestiones fundamentales de la IA, como la forma de lograr que los sistemas de inteligencia artificial descubran por sí mismos qué deben aprender. Añade que también podría servir para que los modelos de IA sean más personalizados: "Los LLM son potentes, pero no queremos que su conocimiento se detenga".

SEAL no es todavía una forma definitiva para que la IA mejore indefinidamente. Por un lado, como señala Agrawal, los LLM probados sufren lo que se conoce como "olvido catastrófico", un preocupante efecto que se observa cuando la incorporación de nueva información hace que desaparezcan conocimientos previamente adquiridos. Esto podría señalar una diferencia fundamental entre las redes neuronales artificiales y las biológicas. Pari y Zweigler también indican que SEAL es un sistema con un alto costo computacional, y que aún no está claro cuál es la mejor forma de programar nuevos periodos de aprendizaje. Una idea interesante, menciona Zweigler, es que, al igual que los humanos, tal vez los LLM podrían experimentar periodos de "sueño" en los que consolidan la nueva información.

A pesar de todas sus limitaciones, SEAL representa una vía nueva y prometedora para la investigación en inteligencia artificial, y es muy probable que se integre en los futuros modelos de IA de vanguardia.

Artículo originalmente publicado en WIRED. Adaptado por Alondra Flores.

Website |  + posts

Somos EL TESTIGO. Una forma diferente de saber lo que está pasando. Somos noticias, realidades, y todo lo que ocurre entre ambos.

Todo lo vemos, por eso vinimos aquí para contarlo.

RELACIONADAS