• CULTURA
  • FUTURO
  • IDENTIDAD
  • VIDA
  • NEWS
  • IMPACTO SOCIAL
  • NOSOTROS CLIENTES
  • Popular

    • Amigas y Rituales: un podcast sobre piel, emociones...
    • El Día del padre: ¿por qué se conmemora el 15 de junio?
    • Hay Festival México: diez años del evento que celebra...
  • Síguenos

Menu
Search
Amigas y Rituales: un podcast sobre piel, emociones...
El Día del padre: ¿por qué se conmemora el 15 de junio?
Hay Festival México: diez años del evento que celebra...
IQOS desafía lo convencional e inspira a cambiar las reglas...
MUBI GO llega a México: una nueva forma de vivir el cine...

Browse

News collects all the stories you want to read
  • CULTURA
    CULTURA
  • ENG
    ENG
  • FUTURO
    FUTURO
  • IDENTIDAD
    IDENTIDAD
  • IMPACTO SOCIAL
    IMPACTO SOCIAL
  • NEWS
    NEWS
  • PODCAST
    PODCAST
  • VIDA
    VIDA
Una abogada está bajo investigación por presentar casos falsos que fueron creados por chatbot de IA
IMPACTO SOCIAL

Una abogada está bajo investigación por presentar casos falsos que fueron creados por chatbot de IA

Natalia Sierra 01 / 03 / 2024

La mujer debe enfrentar una investigación por usar ChatGPT en medio de un caso de custodia infantil.

Unirse al canal de WhatsApp

Una abogada está en el centro de cientos de críticas debido a que se supo que usaba un chatbot de Inteligencia Artificial (IA) para crear casos falsos durante una investigación jurídica.

Se trata de la abogada de Vancouver, Chong Ke, quien ahora debe enfrentar una investigación por usar ChatGPT para desarrollar presentaciones legales en la corte suprema de Columbia Británica, en medio de un caso de custodia infantil.

De acuerdo a los documentos judiciales, la mujer representaba a un padre que buscaba llevar a sus hijos al extranjero, pero se encontraba en medio de la separación con la mamá de los niños.

Ke le pidió a ChatGPT ejemplos de jurisprudencia para poder aplicarlos a la situación de su cliente. La IA le dio tres resultados y dos de ellos los presentó en el tribunal.

Los representantes legales de la madre de los menores no encontraron ningún registro de los casos, pese a las múltiples solicitudes.

Cuando ambas partes tuvieron el enfrentamiento, la abogada se retractó y aseguró que no pensó que los casos fueran falsos.

“No tenía idea de que estos dos casos pudieran ser erróneos. Después de que mi colega señaló el hecho de que no se podían localizar, investigué por mi cuenta y tampoco pude detectar los problemas”, escribió Ke en un correo electrónico al tribunal. «No tenía intención de engañar al abogado contrario ni al tribunal y pedir disculpas sinceras por el error que cometí».

Aunque los chatbots han ayudado a muchas personas por su gran facilidad de encontrar datos, cabe mencionar que estos programas no siempre aciertan y, por el contrario, son propensos a las equivocaciones.

Abogada usa ChatGPT

Imagen de referencia. Foto: Creative Commons

Ver más: Una compañía logró reemplazar con una inteligencia artificial a los 700 empleados que despidió

Los abogados de la contraparte se mostraron indignados con lo sucedido

Los representantes de la madre calificaron la conducta de Ke de “reprensible y merecedora de reprimenda”, argumentando que invirtieron “tiempo y gastos considerables” para averiguar si los casos que ella citó eran reales.

“Citar casos falsos en expedientes judiciales y otros materiales entregados al tribunal es un abuso de proceso y equivale a hacer una declaración falsa ante el tribunal”, escribió el juez David Masuhara. «Si no se controla, puede conducir a un error judicial».

Masuhara aseguró que las acciones de Ke ocasionaron «publicidad negativa significativa»; además, calificó a la abogada como «ingenua acerca de los riesgos de usar ChatGPT». Sin embargo, resaltó que tomó medidas para corregir sus errores.

“No encuentro que ella tuviera la intención de engañar o desorientar. Acepto la sinceridad de las disculpas de la señora Ke ante el abogado y el tribunal. Su arrepentimiento fue claramente evidente durante su comparecencia y sus presentaciones orales ante el tribunal”.

A pesar de que el juez Masuhara resaltó que no encontró maldad en las acciones de Ke, la sociedad jurídica de Columbia Británica está investigando la conducta de Ke.

 

Te puede interesar:  

#ChatGPT
Unirse al canal de WhatsApp



Terms Privacy policy
PLAYGROUND AMERICAS LLC ©2025 All rights reserved
Síguenos

Share

Share stories you like to your friends
x