Los modelos de lenguaje de gran tamaño (LLM), como ChatGPT, uno de los sistemas de inteligencia artificial más populares del mundo, tienen dificultades para razonar usando la lógica y suelen cometer errores con frecuencia, según una investigación reciente.
Estos robots conversacionales muestran los sesgos de género, éticos y morales presentes en los textos de los que se alimentan, según un estudio publicado en la revista Open Science de la Royal Society británica.
Un estudio realizado por Olivia Macmillan-Scott, estudiante de doctorado en ciencias de computación en la University College de Londres (UCL), examinó si los modelos de lenguaje reflejan también los sesgos cognitivos humanos en pruebas de razonamiento.
Los resultados indican que los LLM muestran un razonamiento a menudo irracional, pero de una manera distinta a la de los humanos, según la investigadora.
Bajo la dirección de Mirco Musolesi, profesor y director del Machine Intelligence Lab de UCL, Macmillan-Scott sometió siete modelos de lenguaje a pruebas psicológicas diseñadas para humanos, incluyendo varias versiones de ChatGPT, Bard de Google, Claude 2 de Anthropic y Llama de Meta.
Los LLM mostraron respuestas inconsistentes en pruebas de razonamiento, lo que sugiere que pueden tener dificultades para tomar decisiones lógicas de manera coherente.
Según la investigadora, aunque los LLM pueden resolver ecuaciones matemáticas complicadas, pueden cometer errores simples en cálculos básicos. Algunos modelos incluso se negaron a responder algunas preguntas debido a posibles estereotipos de género enunciados en las mismas.
En general, se observó que los LLM presentaban "errores de máquina" en su razonamiento, a diferencia de los errores humanos. Aunque GPT-4 mostró mejores resultados que otros modelos, aún se considera poco fiable para decisiones importantes.
En resumen, los LLM pueden necesitar más entrenamiento para mejorar su capacidad de razonamiento lógico y evitar decisiones erróneas. Son máquinas capaces de tareas complejas, pero aún tienen dificultades para demostrar un pensamiento completo y coherente como los humanos.
Somos EL TESTIGO. Una forma diferente de saber lo que está pasando. Somos noticias, realidades, y todo lo que ocurre entre ambos.
Todo lo vemos, por eso vinimos aquí para contarlo.