IMPACTO SOCIAL

Una abogada está bajo investigación por presentar casos falsos que fueron creados por chatbot de IA

Una abogada está en el centro de cientos de críticas debido a que se supo que usaba un chatbot de Inteligencia Artificial (IA) para crear casos falsos durante una investigación jurídica.

Se trata de la abogada de Vancouver, Chong Ke, quien ahora debe enfrentar una investigación por usar ChatGPT para desarrollar presentaciones legales en la corte suprema de Columbia Británica, en medio de un caso de custodia infantil.

De acuerdo a los documentos judiciales, la mujer representaba a un padre que buscaba llevar a sus hijos al extranjero, pero se encontraba en medio de la separación con la mamá de los niños.

Ke le pidió a ChatGPT ejemplos de jurisprudencia para poder aplicarlos a la situación de su cliente. La IA le dio tres resultados y dos de ellos los presentó en el tribunal.

Los representantes legales de la madre de los menores no encontraron ningún registro de los casos, pese a las múltiples solicitudes.

Cuando ambas partes tuvieron el enfrentamiento, la abogada se retractó y aseguró que no pensó que los casos fueran falsos.

“No tenía idea de que estos dos casos pudieran ser erróneos. Después de que mi colega señaló el hecho de que no se podían localizar, investigué por mi cuenta y tampoco pude detectar los problemas”, escribió Ke en un correo electrónico al tribunal. «No tenía intención de engañar al abogado contrario ni al tribunal y pedir disculpas sinceras por el error que cometí».

Aunque los chatbots han ayudado a muchas personas por su gran facilidad de encontrar datos, cabe mencionar que estos programas no siempre aciertan y, por el contrario, son propensos a las equivocaciones.

Imagen de referencia. Foto: Creative Commons

Ver más: Una compañía logró reemplazar con una inteligencia artificial a los 700 empleados que despidió

Los abogados de la contraparte se mostraron indignados con lo sucedido

Los representantes de la madre calificaron la conducta de Ke de “reprensible y merecedora de reprimenda”, argumentando que invirtieron “tiempo y gastos considerables” para averiguar si los casos que ella citó eran reales.

“Citar casos falsos en expedientes judiciales y otros materiales entregados al tribunal es un abuso de proceso y equivale a hacer una declaración falsa ante el tribunal”, escribió el juez David Masuhara. «Si no se controla, puede conducir a un error judicial».

Masuhara aseguró que las acciones de Ke ocasionaron «publicidad negativa significativa»; además, calificó a la abogada como «ingenua acerca de los riesgos de usar ChatGPT». Sin embargo, resaltó que tomó medidas para corregir sus errores.

“No encuentro que ella tuviera la intención de engañar o desorientar. Acepto la sinceridad de las disculpas de la señora Ke ante el abogado y el tribunal. Su arrepentimiento fue claramente evidente durante su comparecencia y sus presentaciones orales ante el tribunal”.

A pesar de que el juez Masuhara resaltó que no encontró maldad en las acciones de Ke, la sociedad jurídica de Columbia Británica está investigando la conducta de Ke.

 

Te puede interesar:  

Compartir
Publicado por
nsierra
Tags: ChatGPT

POST RECIENTES

Una imagen de Google Street View permitió descubrir al sospechoso de cometer un crimen

La imagen mostraba a un hombre introduciendo un voluminoso bulto blanco que podría ser el…

1 hora Hace

Esta mujer decidió morir a los 89 años aplicándose la eutanasia acompañada de sus seres queridos

La abuela decidió someterse a la eutanasia porque ya no soportaba los dolores del cáncer…

3 horas Hace

¿Quién es Laurent Perret, el hombre que le salvó la vida a Gisèle Pelicot?

A pesar de ser el hombre que descubrió las primeras pistas, Perret nunca buscó el…

3 horas Hace