
Anthropic revocó el martes el acceso de OpenAI a la API de sus modelos, según informan a WIRED varias fuentes familiarizadas con la compañía y sus alianzas. Aparentemente, OpenAI fue reprendida por violar los términos del servicio.
"Claude Code se ha convertido en la opción preferida de los programadores de todo el mundo, por lo que no fue una sorpresa saber que el propio personal técnico de OpenAI también estaba utilizando nuestras herramientas de programación antes del lanzamiento de GPT-5. Desafortunadamente, esto es una violación directa de nuestros términos de servicio", declaró el portavoz de Anthropic Christopher Nulty en un comunicado a WIRED.
¿Cómo violó las políticas de uso?
Según las condiciones de servicio comerciales de Anthropic, los clientes tienen prohibido utilizar el servicio para "construir un producto de la competencia, incluyendo entrenar modelos de IA de la competencia" o "realizar ingeniería inversa o duplicar" los servicios. Este cambio en el acceso de OpenAI a Claude se produce cuando el fabricante de ChatGPT está preparando el lanzamiento de un nuevo modelo de IA, GPT-5, que se rumorea que es mejor en codificación.
Según las fuentes, OpenAI estaba conectando a Claude a sus propias herramientas internas mediante un acceso especial para desarrolladores (API), en lugar de utilizar la interfaz de chat habitual. Esto permitió a la empresa realizar pruebas para evaluar las capacidades de Claude en aspectos como la codificación y la escritura creativa en comparación con sus propios modelos de IA, y comprobar cómo respondía Claude a mensajes relacionados con la seguridad que incluían categorías como CSAM, autolesiones y difamación. Los resultados ayudan a OpenAI a comparar el comportamiento de sus propios modelos en condiciones similares y a realizar los ajustes necesarios.
"Es un estándar de la industria evaluar otros sistemas de IA para evaluar el progreso y mejorar la seguridad. Aunque respetamos la decisión de Anthropic de cortar nuestro acceso a la API, es decepcionante teniendo en cuenta que nuestra API sigue estando disponible para ellos", mencionó la directora de comunicaciones de OpenAI, Hannah Wong, en un comunicado a WIRED.
Nulty afirma que Anthropic "seguirá garantizando que OpenAI tenga acceso a la API con fines de evaluación comparativa y de seguridad, como es práctica habitual en todo el sector". La empresa no respondió a la petición de WIRED de aclarar si la actual restricción de Claude API para OpenAI afectaría a este trabajo y de qué manera.
Las gigantes llevan años retirando el acceso a la API a sus competidores
Facebook hizo lo mismo con Vine, propiedad de Twitter, lo que dio lugar a acusaciones de comportamiento anticompetitivo, y el mes pasado Salesforce restringió a sus competidores el acceso a determinados datos a través de la API de Slack. Ni siquiera es la primera vez para Anthropic. El mes pasado, la empresa restringió el acceso directo de la startup de codificación de IA Windsurf a sus modelos después de que se rumoreara que OpenAI iba a adquirirla. El acuerdo no se concretó.
El director científico de Anthropic, Jared Kaplan, habló entonces con el medio TechCrunch sobre la revocación del acceso de Windsurf a Claude y refirió: "Creo que sería extraño que vendiéramos Claude a OpenAI".
Un día antes de cortar el acceso de OpenAI a la API de Claude, Anthropic anunció nuevos límites de tarifas en Claude Code, su herramienta de codificación impulsada por IA, citando un uso explosivo y, en algunos casos, violaciones de sus términos de servicio.
Artículo originalmente publicado en WIRED. Adaptado por Alondra Flores
Somos EL TESTIGO. Una forma diferente de saber lo que está pasando. Somos noticias, realidades, y todo lo que ocurre entre ambos.
Todo lo vemos, por eso vinimos aquí para contarlo.