INTERNACIONALES | Colombia | Juez | sentencia

Colombia: Un juez que usó ChatGPT para una sentencia

El magistrado recurrió a la inteligencia artificial para preguntar sobre la normativa respecto a niños autistas y el pago de terapias.

Un juez de Colombia resolvió un caso sobre el derecho a la salud de un niño autista con ayuda del robot ChatGPT, siendo la primera sentencia en redactarse a partir de inteligencia artificial en el país. La Universidad del Rosario de Bogotá cuestionó la decisión del magistrado. Días atrás, una universidad francesa prohibió a los estudiantes su uso.

"Es una ventana inmensa, hoy puede ser ChatGPT, pero en tres meses puede ser cualquier otra alternativa que permita facilitar la redacción de textos y que el juez se apoye en ellos, no con el objetivo de que lo reemplacen", dijo el juez del caso, Juan Manuel Padilla, en entrevista con Blu Radio este jueves.

La sentencia con fecha del 30 de enero resolvió el pedido de una madre para que su hijo autista fuera exonerado del pago de citas médicas, terapias y transporte hacia los centros hospitalarios pues la familia no cuenta con los recursos económicos para hacerse cargo.

Padilla falló a favor del menor de edad y en la sentencia revela que interrogó al robot conversacional ChatGPT para sustentar su decisión.

"¿Menor autista está exonerado de pagar cuotas moderadoras en sus terapias?", pregunta el juez y el aplicativo responde: "Sí, es correcto. De acuerdo con la normativa en Colombia, los menores con diagnóstico de autismo están exonerados de pagar cuotas moderadoras en sus terapias".

La sentencia deja constancia de cuatro preguntas y respuestas similares.

"Los jueces nos somos tontos, por el hecho de hacerle preguntas al aplicativo no dejamos de ser jueces, de ser seres pensantes", explica Padilla.

Según el togado, ChatGPT hace lo que antes le suministraba "un secretario", "de manera organizada, sencilla y estructurada", lo que "podría mejorar los tiempos de respuesta en la rama judicial".

Críticas por el uso de ChatGPT en fallos

La Universidad del Rosario de Bogotá cuestionó este jueves el uso de inteligencia artificial (IA) por parte de operadores judiciales para argumentar sus decisiones, a propósito de la decisión de Padilla.

Juan David Gutiérrez, profesor de la Facultad de Estudios Internacionales, Políticos y Urbanos de la Universidad del Rosario y experto en gobernanza de la inteligencia artificial, esta herramienta "tiende a ofrecer respuestas imprecisas, incorrectas y que incluyen información falsa".

"No es cierto que ChatGPT es capaz de ofrecer la mejor respuesta sobre alguna temática consultada, la herramienta lo único que puede hacer es predecir la probabilidad de un hilo de palabras dado el contexto que le precede, es decir, la consulta que el usuario hace", precisó el académico.

Recientemente, el Instituto de Ciencias Políticas de París, una de las principales universidades francesas conocida como Sciences Po, prohibió el uso de ChatGPT, un chatbot basado en inteligencia artificial capaz de generar prosa coherente, para evitar fraudes y plagios.

Qué es ChatGPT

ChatGPT es, básicamente, un robot virtual (chatbot) que responde una variedad de preguntas, realiza tareas por escrito, conversa con fluidez e incluso da consejos sobre problemas personales (aunque se advierte que no tiene este objetivo).

El sistema fue desarrollado por OpenAI, empresa fundada en 2015 en EE.UU. por Sam Altman, e incluso participó Elon Musk, quien abandonó el proyecto por considerar que existía un conflicto de intereses con su principal empresa, Tesla.

Desde noviembre la inteligencia artificial ChatGPT se propaga por el mundo con adeptos y escépticos.

Según una nota difundida por BBC News, sus posibilidades son tan amplias, que puede enseñar recetas de cocina, tips para entrevistas laborales, redactar poesía y proyectos académicos, lo cual abrió la discusión sobre un cambio en el ecosistema laboral.

Dejá tu comentario