OpenAI acaba de publicar sus primeros modelos de pesos abiertos en más de cinco años. Los dos modelos de lenguaje (LLM), gpt-oss-120b y gpt-oss-20b, pueden ejecutarse localmente en dispositivos de consumo y ajustarse para tareas específicas. Para OpenAI, representan un cambio frente a su estrategia reciente, centrada en lanzamientos propietarios, pues la compañía avanza hacia un portafolio más amplio y más abierto de modelos de IA disponibles para los usuarios.
“Estamos entusiasmados de poner este modelo, fruto de miles de millones de dólares en investigación, al alcance del mundo para que la IA llegue al mayor número posible de personas”, afirmó el director ejecutivo de OpenAI, Sam Altman, en un correo electrónico. Tanto gpt-oss-120b como gpt-oss-20b pueden descargarse de forma gratuita en Hugging Face, la plataforma de alojamiento de herramientas de IA. El último modelo de pesos abiertos que OpenAI había liberado fue GPT-2, en 2019.
Lo que distingue a un modelo de pesos abiertos es que sus “pesos” (los parámetros internos que utiliza para procesar la información) son públicos. En lugar de competir con los modelos propietarios de OpenAI mediante una opción gratuita, el cofundador Greg Brockman considera que este lanzamiento es “complementario” a los servicios de pago de la empresa, como la API que muchos desarrolladores ya emplean. “Los modelos de pesos abiertos tienen un conjunto de fortalezas muy diferente”, dijo Brockman en una sesión informativa con periodistas. A diferencia de ChatGPT, un modelo gpt-oss puede ejecutarse sin conexión a internet y detrás de un firewall.
Ambos modelos gpt-oss utilizan razonamiento de cadena de pensamiento (chain-of-thought), técnica que OpenAI introdujo por primera vez en su modelo o1 el otoño pasado. En lugar de limitarse a dar un resultado, la herramienta genera pasos intermedios para llegar a la respuesta. Estos nuevos modelos, solo de texto, no son multimodales, pero pueden navegar por la web, llamar a modelos en la nube para tareas específicas, ejecutar código y actuar como agentes dentro de software. El menor de los dos, gpt-oss-20b, es lo bastante compacto para funcionar localmente en un dispositivo de consumo con más de 16 GB de memoria.
Los dos modelos se distribuyen bajo la licencia Apache 2.0, una elección habitual en los modelos de pesos abiertos. Esta licencia permite usarlos con fines comerciales, redistribuirlos e integrarlos en software con otras licencias. Lanzamientos de modelos de pesos abiertos como Qwen de Alibaba y los de Mistral también emplean Apache 2.0.
Anunciados públicamente en marzo, estos modelos abiertos se retrasaron para someterlos a pruebas de seguridad adicionales. Publicar un modelo de pesos abiertos es potencialmente más arriesgado que ofrecer uno cerrado, ya que elimina barreras sobre quién puede utilizar la herramienta y cualquiera podría afinar una versión de gpt-oss para fines no deseados.
Además de las evaluaciones habituales en sus modelos propietarios, OpenAI adaptó la opción de pesos abiertos para medir cómo podría aprovecharla un “actor malintencionado” tras descargarla. “De hecho, afinamos el modelo internamente en algunas de estas áreas de riesgo”, explicó Eric Wallace, investigador de seguridad de OpenAI, “y medimos hasta qué punto podíamos aumentar esos riesgos”. En las pruebas, el modelo de pesos abiertos no alcanzó un nivel elevado de riesgo según el marco de preparación de la compañía.
¿Cómo rinden estos modelos frente a otros lanzamientos de OpenAI? “Las puntuaciones de referencia de ambos modelos son bastante sólidas”, indicó Chris Koch, investigador de la empresa, durante la sesión informativa. Respecto al gpt-oss-120b, el investigador lo situó muy cerca del rendimiento de los modelos propietarios o3 y o4-mini de OpenAI, e incluso los superó en determinadas pruebas. La tarjeta de modelo de gpt-oss detalla cómo se compara exactamente con las demás ofertas. El personal también subrayó la baja latencia y el menor costo de operación de los nuevos modelos.
A principios de este año, la startup china DeepSeek sorprendió a Silicon Valley al lanzar un modelo de pesos abiertos barato de ejecutar. Aunque el blog de OpenAI sobre gpt-oss no menciona a DeepSeek ni a otras empresas chinas, Altman deja claro que quiere que la innovación en modelos de pesos abiertos ocurra en Estados Unidos. “Desde que empezamos en 2015, la misión de OpenAI es garantizar una inteligencia artificial general (IAG) que beneficie a toda la humanidad”, señaló Altman en un comunicado. “En ese sentido, nos entusiasma que el mundo construya sobre una pila de IA abierta creada en Estados Unidos, basada en valores democráticos, disponible de forma gratuita para todos y con un beneficio amplio”.
En Estados Unidos, el referente de los pesos abiertos ha sido Meta. La compañía lanzó la primera versión de su serie Llama en 2023 y su versión más reciente, Llama 4, llegó hace unos meses. Meta está ahora muy centrada en desarrollar IA que supere la cognición humana y recientemente inauguró un laboratorio interno liderado por Alexandr Wang, ex CEO de Scale. Mark Zuckerberg ha insinuado que la empresa podría alejarse del código abierto en futuros modelos por motivos de seguridad.
El lanzamiento de gpt-oss llega también en medio de la guerra de talento en IA entre compañías como OpenAI y Meta. En 2025, los investigadores con habilidades muy demandadas reciben ofertas astronómicas para cambiar de empresa. Dependiendo de la acogida que tengan entre los desarrolladores, los nuevos modelos de OpenAI podrían suponer una competencia seria para Meta.
Artículo publicado originalmente en inglés en WIRED, adpatado por Manuel de León.
Somos EL TESTIGO. Una forma diferente de saber lo que está pasando. Somos noticias, realidades, y todo lo que ocurre entre ambos.
Todo lo vemos, por eso vinimos aquí para contarlo.