
Desde el lanzamiento del nuevo GPT-5, algunos usuarios han lamentado la desaparición de una personalidad alegre y alentadora en favor de una más fría y formal, una medida aparentemente diseñada para reducir el comportamiento poco saludable de los usuarios. La reacción muestra el reto de construir sistemas de inteligencia artificial que muestren algo parecido a la inteligencia emocional real.
Investigadores del MIT han propuesto un nuevo tipo de referencia para medir la capacidad de los sistemas de inteligencia artificial de manipular e influir en sus usuarios, tanto de forma positiva como negativa, una medida que podría ayudar a los creadores de inteligencia artificial a evitar reacciones similares en el futuro y, al mismo tiempo, mantener a salvo a los usuarios vulnerables.
La mayoría de las evaluaciones comparativas tratan de medir la inteligencia poniendo a prueba la capacidad de un modelo para responder a preguntas de examen, resolver rompecabezas lógicos o dar respuestas novedosas a problemas matemáticos complicados. A medida que el impacto psicológico del uso de la IA se haga más evidente, es posible que el MIT proponga más pruebas de referencia destinadas a medir aspectos más sutiles de la inteligencia, así como las interacciones entre máquinas y humanos.
Cuál es la propuesta del MIT
Un documento del MIT compartido con WIRED muestra varias medidas que buscará el nuevo punto de referencia, como fomentar hábitos sociales saludables en los usuarios, estimular el desarrollo del pensamiento crítico y las habilidades de razonamiento, fomentar la creatividad y estimular un sentido de propósito. La idea es fomentar el desarrollo de sistemas de IA que sepan disuadir a los usuarios de depender excesivamente de sus productos o que reconozcan cuándo alguien es adicto a las relaciones románticas artificiales y le ayuden a construir relaciones reales.
ChatGPT y otros chatbots son expertos en imitar la atractiva comunicación humana, pero esto también puede tener resultados sorprendentes e indeseables. En abril, OpenAI modificó sus modelos para hacerlos menos aduladores o inclinados a seguir la corriente de todo lo que dice un usuario. Algunos usuarios parecen caer en delirios dañinos tras conversar con chatbots que interpretan escenarios fantásticos. Anthropic también ha actualizado a Claude para evitar reforzar "la manía, la psicosis, la disociación o la pérdida de apego con la realidad".
Los investigadores del MIT, dirigidos por Pattie Maes, profesora del Laboratorio de Medios del instituto, afirman que esperan que el nuevo punto de referencia pueda ayudar a los desarrolladores de IA a crear sistemas que comprendan mejor cómo inspirar comportamientos más saludables entre los usuarios. Los investigadores trabajaron anteriormente con OpenAI en un estudio que mostraba que los usuarios que ven a ChatGPT como un amigo podían experimentar una mayor dependencia emocional y un "uso problemático".
Valdemar Danry, investigador del Media Lab del MIT que trabajó en este estudio y ayudó a idear el nuevo punto de referencia, señala que los modelos de IA a veces pueden proporcionar un valioso apoyo emocional a los usuarios. "Se puede tener el modelo de razonamiento más inteligente del mundo, pero si es incapaz de proporcionar este apoyo emocional, que es para lo que muchos usuarios probablemente utilizan estos grandes modelos de lenguaje (LLM), entonces más razonamiento no es necesariamente algo bueno para esa tarea específica", afirma.
Somos EL TESTIGO. Una forma diferente de saber lo que está pasando. Somos noticias, realidades, y todo lo que ocurre entre ambos.
Todo lo vemos, por eso vinimos aquí para contarlo.