Nicaragua
This article was added by the user . TheWorldNews is not responsible for the content of the platform.

Abogados que usaron ChatGPT en juicio recibieron multa de 5.000 dólares

Los abogados Steven A. Schwartz y Peter LoDuca presentaron un escrito elaborado con ChatGPT. El documento que se generó a partir de esta inteligencia artificial proporcionaba sentencias falsas y fue utilizado en la defensa de un caso hasta que se comprobó que la información no era verídica.

Los abogados no se percataron de que la IA “se había inventado la información”. A raíz de esos hechos el juez Kevin Castel los condenó a pagar una multa de 5.000 dólares.

“Los abogados abandonaron sus responsabilidades cuando presentaron opiniones judiciales inexistentes con citas falsas y citas creadas por la herramienta de inteligencia artificial ChatGPT, luego continuaron defendiendo las opiniones falsas después de que las órdenes judiciales pusieran en duda su existencia”,

sentenció el Juez Castel.

A partir de dicha sentencia también se vio afectado el bufete de abogados Levidow & Oberman PC, donde Schwartz y LoDuca desempeñan sus funciones.

¿De qué trataba el caso?

Steven A. Schwartz y Peter LoDuca representaban a Roberto Mata. Esta persona demandaba a la aerolínea Avianca debido a una lesión que sufrió durante un vuelo. En su viaje, Mata recibió un fuerte golpe en la rodilla por el choque de un carrito de bebidas.

No obstante, los abogados perdieron el caso, no solo por la presentación de pruebas falsas, sino también por el hecho de que habían pasado más de dos años desde la lesión. De esa forma, el juez desestimó el caso, ya que la Convención de Montreal otorga un plazo máximo de dos años para que procedan las demandas.

Además, los abogados tuvieron que reconocer frente a los otros abogados y su propio cliente, que utilizaron material falso generado a partir de ChatGPT.

Los riesgos de ChatGPT

Esta inteligencia artificial es una de las más exitosas del mundo. Por ende, son muchas las áreas que han comenzado a aplicarla en el mundo profesional. Sin embargo, este generador de chat cuenta con algunas limitaciones. Y es que cuando no conoce la respuesta a una petición o no puede acceder a cierta información, puede generar contenido adulterado.

De esa forma, existe el riesgo de estar expuestos a una herramienta que si no se usa de forma responsable puede ser fuente de desinformación.

Tanto así, que ya el Parlamento Europeo aprobó una ley para regular el uso de la inteligencia artificial en Europa, con el fin de salvaguardar a la población.