Los abogados podrían enfrentar sanciones ‘severas’ por citas falsas generadas por IA, la corte del Reino Unido advierte

El Tribunal Superior de Inglaterra y Gales dice que los abogados deben tomar medidas más fuertes para evitar el mal uso de la inteligencia artificial en su trabajo.

En un fallo Atando dos casos recientes, la jueza Victoria Sharp escribió que las herramientas generativas de IA como ChatGPT “no son capaces de realizar una investigación legal confiable”.

“Dichas herramientas pueden producir respuestas aparentemente coherentes y plausibles a las indicaciones, pero esas respuestas coherentes y plausibles pueden resultar completamente incorrectas”, escribió el juez Sharp. “Las respuestas pueden hacer afirmaciones seguras que son simplemente falsas”.

Eso no significa que los abogados no puedan usar la IA en su investigación, pero ella dijo que tienen el deber profesional de “verificar la precisión de dicha investigación por referencia a fuentes autorizadas, antes de usarla en el curso de su trabajo profesional”.

El juez Sharp sugirió que el creciente número de casos en los que los abogados (incluidos, en el lado de los Estados Unidos, los abogados que representan a las principales plataformas de IA) han citado lo que parecen ser falsedades generadas por AI sugiere que “se debe hacer más para garantizar que se siga la orientación y los abogados cumplan con sus deberes al tribunal”, y ella dijo que su regla debe hacerse a los organismos profesionales, incluidos los organizaciones profesionales, incluidos los abogados y la sociedad de la ley.

En uno de los casos en cuestión, un abogado que representa a un hombre que busca daños contra dos bancos presentó una presentación ante 45 citas: 18 de esos casos no existían, mientras que muchos otros “no contenían las citas que se les atribuyeron, no respaldaron las proposiciones para las cuales fueron citadas y no tenían ninguna relevancia para el tema del tema”, dijo el juez Sharp.

En el otro, un abogado que representa a un hombre que había sido desalojado de su casa de Londres escribió una presentación judicial citando cinco casos que no parecían existir. (El abogado negó haber usado IA, aunque dijo que las citas pueden provenir de resúmenes generados por la IA que aparecieron en “Google o Safari”). El juez Sharp dijo que si bien el tribunal decidió no iniciar los procedimientos de desacato, eso “no es un precedente”.

“Los abogados que no cumplen con sus obligaciones profesionales a este respecto corren el riesgo de sanción severa”, agregó.

Ambos abogados fueron remitidos o remitidos a reguladores profesionales. El juez Sharp señaló que cuando los abogados no cumplen con sus deberes ante el tribunal, los poderes del tribunal van desde la “advertencia pública” hasta la imposición de costos, procedimientos de desacato o incluso “derivación a la policía”.

Sumber

Comments

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *