IMPACTO SOCIAL

Una abogada está bajo investigación por presentar casos falsos que fueron creados por chatbot de IA

Una abogada está en el centro de cientos de críticas debido a que se supo que usaba un chatbot de Inteligencia Artificial (IA) para crear casos falsos durante una investigación jurídica.

Se trata de la abogada de Vancouver, Chong Ke, quien ahora debe enfrentar una investigación por usar ChatGPT para desarrollar presentaciones legales en la corte suprema de Columbia Británica, en medio de un caso de custodia infantil.

De acuerdo a los documentos judiciales, la mujer representaba a un padre que buscaba llevar a sus hijos al extranjero, pero se encontraba en medio de la separación con la mamá de los niños.

Ke le pidió a ChatGPT ejemplos de jurisprudencia para poder aplicarlos a la situación de su cliente. La IA le dio tres resultados y dos de ellos los presentó en el tribunal.

Los representantes legales de la madre de los menores no encontraron ningún registro de los casos, pese a las múltiples solicitudes.

Cuando ambas partes tuvieron el enfrentamiento, la abogada se retractó y aseguró que no pensó que los casos fueran falsos.

“No tenía idea de que estos dos casos pudieran ser erróneos. Después de que mi colega señaló el hecho de que no se podían localizar, investigué por mi cuenta y tampoco pude detectar los problemas”, escribió Ke en un correo electrónico al tribunal. «No tenía intención de engañar al abogado contrario ni al tribunal y pedir disculpas sinceras por el error que cometí».

Aunque los chatbots han ayudado a muchas personas por su gran facilidad de encontrar datos, cabe mencionar que estos programas no siempre aciertan y, por el contrario, son propensos a las equivocaciones.

Imagen de referencia. Foto: Creative Commons

Ver más: Una compañía logró reemplazar con una inteligencia artificial a los 700 empleados que despidió

Los abogados de la contraparte se mostraron indignados con lo sucedido

Los representantes de la madre calificaron la conducta de Ke de “reprensible y merecedora de reprimenda”, argumentando que invirtieron “tiempo y gastos considerables” para averiguar si los casos que ella citó eran reales.

“Citar casos falsos en expedientes judiciales y otros materiales entregados al tribunal es un abuso de proceso y equivale a hacer una declaración falsa ante el tribunal”, escribió el juez David Masuhara. «Si no se controla, puede conducir a un error judicial».

Masuhara aseguró que las acciones de Ke ocasionaron «publicidad negativa significativa»; además, calificó a la abogada como «ingenua acerca de los riesgos de usar ChatGPT». Sin embargo, resaltó que tomó medidas para corregir sus errores.

“No encuentro que ella tuviera la intención de engañar o desorientar. Acepto la sinceridad de las disculpas de la señora Ke ante el abogado y el tribunal. Su arrepentimiento fue claramente evidente durante su comparecencia y sus presentaciones orales ante el tribunal”.

A pesar de que el juez Masuhara resaltó que no encontró maldad en las acciones de Ke, la sociedad jurídica de Columbia Británica está investigando la conducta de Ke.

 

Te puede interesar:  

Compartir
Publicado por
nsierra
Tags: ChatGPT

POST RECIENTES

Bridgerton temporada 3: la historia pone a prueba el amor de ‘Colin’ y ‘Penelope’

Esta nueva entrega contará la forma como 'Colin Bridgerton' y 'Penelope Featherington' tienen que enfrentarse…

14 horas Hace

El portal de la discordia entre Dublín y Nueva York

La iniciativa buscaba conectar a estas dos ciudades y culturas a través de un portal…

17 horas Hace

El Guardián de las monarcas: ¿Quién fue Homero Gómez y cómo su lucha dejó huella en un país entero?

¿Quién fue Homero Gómez?, ¿qué le pasó y cuál es el impacto de su historia…

20 horas Hace