miércoles, julio 30, 2025
spot_img
spot_img

Editoriales

Por qué ChatGPT escupió instrucciones para un ritual demoniaco y cuál es el verdadero problema sistémico detrás

Quizá la prueba más convincente de que ChatGPT regurgitó lenguaje de Warhammer 40,000 es que insistía en preguntar si The Atlantic estaba interesado en archivos PDF. La división editorial de Games Workshop, la empresa británica propietaria de la franquicia, publica periódicamente reglas y guías actualizadas sobre diversos personajes. Comprar todos estos libros puede resultar caro, por lo que algunos aficionados buscan copias piratas en internet.

Tanto The Atlantic como OpenAI declinaron hacer comentarios.


Ilustración fotográfica de un ojo pixelado dentro del logotipo de ChatGPT sobre fondo azul.
OpenAI estrena ChatGPT Agent, un asistente que quiere hacer (casi) todo por ti

Es un generador de PowerPoint. ¡Es un planificador de citas! Es… otro agente de OpenAI.


No son las primeras alucinaciones de ChatGPT

A principios de este mes, el boletín Garbage Day informó sobre experiencias similares que un destacado inversionista tecnológico podría haber tenido con ChatGPT. En redes sociales, el inversionista compartió capturas de pantalla de sus conversaciones con el chatbot, en las que este hacía referencia a una inquietante entidad sonora denominada "sistema no gubernamental". Parecía creer que dicha entidad había "afectado negativamente a más de 7,000 vidas" y "extinguido 12, cada una con un patrón completo". Otras figuras del sector tecnológico expresaron preocupación por la salud mental del inversionista.

Según Garbage Day, las conversaciones del inversionista con ChatGPT se parecen mucho a los escritos del proyecto de ciencia ficción colaborativo SCP (Secure, Contain, Protect, por sus siglas en inglés). Los participantes inventan distintos SCP, objetos espeluznantes o fenómenos misteriosos, y escriben informes ficticios que los analizan. Estos informes suelen incluir números de clasificación, referencias a experimentos científicos ficticios y otros detalles que también aparecían en los chats del inversionista.

Existen ejemplos más cotidianos de este problema. El otro día, por ejemplo, busqué en Google "cirugía de cavitación", un término médico que había visto en un video cualquiera de TikTok. El primer resultado era un resumen de IA generado automáticamente que explicaba que la cirugía de cavitación "se centra en la eliminación de tejido óseo infectado o muerto de la mandíbula".

No pude encontrar ningún estudio científico acreditado que describiera tal afección, y mucho menos que respaldara que esa cirugía sea una forma válida de tratamiento. La Asociación Dental Americana no menciona la "cirugía de cavitación" en ningún lugar de su sitio web. Resulta que la descripción de IA de Google se había generado a partir de publicaciones en blogs que promocionan dentistas "holísticos" alternativos en Estados Unidos. Me enteré de esto haciendo clic en un pequeño ícono junto al resumen de IA, que abría una lista de enlaces que Google había usado para generar su respuesta.

Estas citas son claramente mejores que nada. Jennifer Kutz, portavoz de Google, afirma que "mostramos de forma destacada los enlaces de apoyo para que la gente pueda profundizar y saber más sobre lo que dicen las fuentes en la web". Pero para cuando los enlaces aparecen, la IA de Google ya ha dado una respuesta aparentemente satisfactoria a muchas consultas, reduciendo la visibilidad de detalles cruciales como el sitio del que proviene la información o la identidad de sus autores.


ChatGPT Google 2200561879
ChatGPT recibe más de 2,500 millones de solicitudes al día; ¿se acabó el reinado de Google?

Aunque aún lejos de Google, el crecimiento meteórico de ChatGPT y los planes ambiciosos de OpenAI, como lanzar su propio navegador, perfilan a la empresa de Sam Altman como su rival más serio en años.


Sin contexto, el lenguaje de la IA puede parecer autorizado

En las últimas semanas, varios CEO han usado repetidamente una retórica que sugiere que la IA generativa es una fuente de conocimiento experto. Elon Musk afirmó que su último modelo de IA es "mejor que el nivel de doctorado" en todas las disciplinas académicas, "sin excepciones". El CEO de OpenAI, Sam Altman, escribió que los sistemas automatizados son ya "más inteligentes que las personas en muchos aspectos" y predijo que el mundo está "cerca de construir una superinteligencia digital".

Sin embargo, los seres humanos rara vez somos expertos en una amplia gama de campos. Para tomar decisiones, no solo evaluamos la información, sino también su procedencia y presentación. Aunque no sé nada sobre la biología del hueso maxilar, normalmente no leo blogs de marketing al azar cuando quiero aprender sobre medicina. Pero las herramientas de IA suelen eliminar el tipo de contexto que las personas necesitan para decidir rápidamente a qué información prestar atención.

El internet abierto es poderoso porque conecta directamente a las personas con el mayor archivo de conocimiento humano jamás creado, que abarca desde pinturas del Renacimiento italiano hasta comentarios en PornHub. Después de procesarlo todo, las empresas de IA utilizaron lo que equivale a la historia colectiva de nuestra especie para crear un software que desvanece esa misma riqueza y complejidad. Depender excesivamente de él puede privar a las personas de la oportunidad de sacar conclusiones propias al analizar la evidencia por sí mismas.

Artículo originalmente publicado en WIRED. Adaptado por Alondra Flores.

Website |  + posts

Somos EL TESTIGO. Una forma diferente de saber lo que está pasando. Somos noticias, realidades, y todo lo que ocurre entre ambos.

Todo lo vemos, por eso vinimos aquí para contarlo.

RELACIONADAS