jueves, octubre 23, 2025
spot_img
spot_img

Editoriales

Las IA también pueden sufrir de brain rot

Después de todo, los modelos de IA pueden parecerse un poco a los humanos. Un nuevo estudio de la Universidad de Texas en Austin, Texas A&M y la Universidad de Purdue muestra que los grandes modelos de lenguaje (LLM), alimentados con contenidos populares pero de baja calidad procedentes de redes sociales, experimentan una especie de "podredumbre mental" (brain rot, en inglés) que resultará familiar para cualquiera que haya pasado demasiado tiempo escroleando por Instagram o TikTok.

"Vivimos en una época en la que la información crece más rápido que la capacidad de atención, y gran parte de ella está diseñada para captar clics, no para transmitir verdad o profundidad. Nos preguntamos: ¿Qué ocurre cuando las IA se entrenan con el mismo material?", explica Junyuan Hong, profesor asistente entrante en la Universidad Nacional de Singapur que trabajó en el estudio como estudiante de posgrado en UT Austin.


article image
’Brain rot’ ha sido elegida la Palabra del Año 2024 por Oxford

El primer uso documentado de la palabra brain rot (algo así como "podredumbre cerebral") data de mucho antes de la era de Internet: fue utilizada por Henry David Thoreau en su libro Walden, publicado en 1854.


¿Cómo llegaron a esa conclusión?

Hong y sus colegas alimentaron con distintos tipos de texto dos LLM de código abierto en el preentrenamiento. Examinaron lo que ocurría cuando los modelos recibían una combinación de publicaciones muy "atractivas" o ampliamente compartidas en redes sociales y otras que contenían texto sensacionalista o exagerado.

A continuación, los investigadores utilizaron diferentes puntos de referencia para medir el impacto de esta dieta "basura" en dos modelos de código abierto: Llama de Meta y Qwen de Alibaba.

Los modelos alimentados con texto basura experimentaron una especie de podredumbre mental, con un deterioro cognitivo que incluía la reducción de la capacidad de razonamiento y la degradación de la memoria. Los modelos también se volvieron menos éticos y más psicópatas según dos medidas. Los resultados reflejan las investigaciones en seres humanos, que demuestran que los contenidos en línea de baja calidad tienen un efecto perjudicial en las capacidades cognitivas de las personas. La omnipresencia de este fenómeno hizo que brain rot fuera nombrada palabra del año en el Diccionario Oxford en 2024.

Los resultados son importantes para el sector de la IA, afirma Hong, porque los creadores de modelos podrían suponer que las publicaciones en redes sociales son una buena fuente de datos de entrenamiento para sus modelos: "Entrenarse con contenidos virales o que llamen la atención puede parecer que se están ampliando los datos. Pero puede corroer silenciosamente el razonamiento, la ética y la atención al contexto largo".

Con la IA podrida, el futuro de los contenidos parece incierto

El hecho de que los LLM sufran de brain rot parece especialmente preocupante cuando la propia IA está generando cada vez más contenido de medios sociales, gran parte del cual está aparentemente optimizado para el compromiso. Los investigadores también descubrieron que los modelos dañados por contenidos de baja calidad no podían mejorarse fácilmente mediante reentrenamiento.

Los resultados también sugieren que los sistemas de IA creados en torno a plataformas sociales, como Grok, podrían sufrir problemas de control de calidad si se utilizan en el entrenamiento publicaciones generadas por los usuarios sin tener en cuenta la integridad de las mismas.

"A medida que se difunde más basura generada por la IA en las redes sociales, se contaminan los datos de los que aprenderán los futuros modelos. Nuestros hallazgos muestran que una vez que este tipo de brain rot se instala, el entrenamiento limpio posterior no puede deshacerlo por completo", concluye Hong.

Artículo publicado originalmente en WIRED. Adaptado por Alondra Flores.

Website |  + posts

Somos EL TESTIGO. Una forma diferente de saber lo que está pasando. Somos noticias, realidades, y todo lo que ocurre entre ambos.

Todo lo vemos, por eso vinimos aquí para contarlo.

RELACIONADAS