Abogados de Nueva York multados por utilizar casos falsos de ChatGPT en un escrito legal

Estás leyendo la publicación: Abogados de Nueva York multados por utilizar casos falsos de ChatGPT en un escrito legal

El uso torpe de ChatGPT le ha valido a un bufete de abogados de la ciudad de Nueva York una multa de 5.000 dólares.

Habiendo escuchado tanto sobre el impresionante chatbot impulsado por IA de OpenAI, el abogado Steven Schwartz decidió usarlo para investigaciones, agregando citas de casos generadas por ChatGPT a un escrito legal entregado a un juez a principios de este año. Pero pronto se supo que los casos habían sido inventados en su totalidad por el chatbot.

El juez federal de distrito P. Kevin Castel ordenó el jueves a los abogados Steven Schwartz y Peter LoDuca, quienes se hicieron cargo del caso de su compañero de trabajo, y a su bufete de abogados Levidow, Levidow & Oberman, a pagar una multa de 5.000 dólares.

el juez dijo los abogados habían realizado “actos de evasión consciente y declaraciones falsas y engañosas ante el tribunal”, y agregaron que habían “abandonado sus responsabilidades” al presentar el escrito escrito por AI antes de defender “las opiniones falsas después de que las órdenes judiciales pusieran en duda su existencia”. .”

castel continuó: “Muchos daños se derivan de la presentación de opiniones falsas. La parte contraria pierde tiempo y dinero exponiendo el engaño. El tiempo del tribunal se desvía de otros esfuerzos importantes”.

El juez añadió que la acción de los abogados “promueve el cinismo sobre la profesión jurídica y el sistema judicial estadounidense”.

El bufete de abogados de Manhattan dijo que “respetuosamente” no estaba de acuerdo con la opinión del tribunal y la describió como un “error de buena fe”.

🔥 Recomendado:  Por qué todavía es un buen momento para comprar una MacBook Air M2

En una audiencia judicial relacionada a principios de este mes, Schwartz dijo Quería “disculparse sinceramente” por lo sucedido, explicando que pensaba que estaba usando un motor de búsqueda y no tenía idea de que la herramienta de inteligencia artificial pudiera producir falsedades. Dijo que “lamentaba profundamente” sus acciones y agregó: “Sufrí tanto a nivel profesional como personal. [because of] la amplia publicidad que este tema ha generado. Estoy a la vez avergonzado, humillado y extremadamente arrepentido”.

El incidente estuvo relacionado con un caso asumido por el bufete de abogados que involucra a un pasajero que demandó a la aerolínea colombiana Avianca después de afirmar que sufrió una lesión en un vuelo a la ciudad de Nueva York.

Avianca pidió al juez que desestimara el caso, por lo que el equipo legal del pasajero compiló un escrito citando seis casos similares en un intento de persuadir al juez de que permitiera continuar con el caso de su cliente. Schwartz encontró esos casos preguntando a ChatGPT, pero no pudo verificar la autenticidad de los resultados. El equipo legal de Avianca dio la alarma al decir que no podía localizar los casos contenidos en el escrito.

En una orden separada del jueves, el juez aceptó la moción de Avianca de desestimar la demanda en su contra, poniendo fin a todo el lamentable episodio.

ChatGPT y otros chatbots similares han ganado mucha atención en los últimos meses debido a su capacidad para conversar de forma humana y realizar hábilmente una gama cada vez mayor de tareas basadas en texto. Pero también son conocidos por inventar cosas y presentarlas como si fueran reales. Es tan frecuente que incluso existe un término para describirlo: “alucinar”.

🔥 Recomendado:  ¿Qué significa "Ignorado por agregarme" en Snapchat? 2023 (Explicado)

Quienes trabajan en las herramientas de inteligencia artificial generativa están explorando formas de reducir las alucinaciones, pero hasta entonces se recomienda a los usuarios que verifiquen cuidadosamente cualquier “hecho” que escupen los chatbots.