jueves, abril 24, 2025
spot_img
spot_img

Editoriales

ChatGPT está siendo un problema severo para los tribunales

"Era cuestión de tiempo", afirma el abogado Ernesto Belisario. No ha pasado mucho tiempo desde que las "alucinaciones" empezaron a resonar en el debate público en relación con los chatbots que utilizamos a diario. Ahora, la información falsa, pero presentada como verdadera por el modelo de IA desarrollado por OpenAI, incluso después de varias consultas del usuario, ha aterrizado en la mesa de un juez del Tribunal de Florencia.

El asunto judicial ha suscitado preocupación por la posibilidad de que, en un futuro no muy lejano, este tipo de errores puedan inundar un sistema que se basa en la buena fe y profesionalidad de los actores judiciales.


La nueva generación de imágenes 4o de ChatGPT.
ChatGPT estrena una función para crear imágenes desde cero y es sorprendentemente buena

OpenAI anuncia su nueva función de generación de imágenes dentro de su modelo multimodal 4o. Los usuarios de ChatGPT gratis y de paga podrán producir resultados fotorrealistas, precisos y exactos.


No confíes demasiado en tu asistente de IA

Los propios desarrolladores de los grandes modelos de lenguaje (LLM) son claros: no debes fiarte demasiado. Sin embargo, como se detalla en los documentos relativos a un caso reciente debatido en el tribunal de la capital toscana, no siempre se toman todas las precauciones necesarias. Eso fue lo que le ocurrió a un socio del abogado, quien fue asistido por ChatGPT en la delicada tarea de redactar el escrito de defensa necesario para el juicio. Este tipo de documento suele ser utilizado por el acusado en un proceso penal para expresarse ante el juez y reforzar su posición de inocencia.

Al ser consultado, el chatbot proporcionó información completamente errónea sobre unas sentencias inexistentes del Tribunal Supremo que, sin embargo, terminaron incluidas en documentos oficiales como prueba de jurisprudencia.

"Entre tantos pendientes, uno podría pensar que ChatGPT es un atajo para agilizar una entrega", continúa Belisario, quien recuerda que ya se han dado algunos casos similares en el extranjero. A mediados de febrero, el abogado estadounidense Rudwin Ayala enmendó su error ante un tribunal de distrito de Wyoming, tras haber utilizado información incorrecta proporcionada por una herramienta de inteligencia artificial. Exactamente lo mismo que ocurrió en Florencia. En su declaración, Ayala afirmó que se arrepentía y pidió disculpas al tribunal y a sus colegas por "las molestias causadas".


Mujer de la tercera edad usa un chatbot en su tablet.
ChatGPT es extremadamente positivo y esto está molestando a los usuarios

Los usuarios se quejan de una nueva tendencia de "adulación" donde ChatGPT piensa que todo es brillante y genial.


El riesgo de litigios temerarios es real

Las alucinaciones provocadas por ChatGPT u otras herramientas similares no solo producen vergüenza y, en consecuencia, una pérdida de credibilidad para el bufete de abogados que no verifica la información presentada ante el juez. Si un abogado utiliza información falsa para apoyar su defensa, puede ser condenado por actuar de mala fe, lo que desencadenaría el llamado "litigio temerario o abusivo". Fuera de este caso concreto, normalmente este tipo de demandas las interponen empresas contra periodistas o activistas, con el fin de obligarlos a someterse a procedimientos judiciales, a veces muy largos, que luego no concluyen en nada concreto.

"Realmente no comparto la apreciación del juez de que todo esto sea una grave falta; fue más bien un descuido sin consecuencias", continúa Belisario, subrayando que el trabajo del abogado requiere cuidado y atención precisamente por la responsabilidad que conlleva. Además de la mala impresión profesional, nos enfrentamos a un riesgo inminente con el uso de la IA. Belisario añade que no comprobar la información incluida en un documento judicial es una conducta que debe ser sancionada. Es indudable que la IA tiene grandes ventajas, como la optimización de tareas administrativas, pero este caso expone las consecuencias graves de su uso indiscriminado.

Artículo publicado originalmente en WIRED Italia. Adaptado por Alondra Flores.

Website |  + posts

Somos EL TESTIGO. Una forma diferente de saber lo que está pasando. Somos noticias, realidades, y todo lo que ocurre entre ambos.

Todo lo vemos, por eso vinimos aquí para contarlo.

RELACIONADAS