Abogado que usó ChatGPT para escribir un informe plagado de citas falsas para enfrentar sanciones

Estás leyendo la publicación: Abogado que usó ChatGPT para escribir un informe plagado de citas falsas para enfrentar sanciones

Mucha gente cree que algún día, los programas de ChatGPT los dejarán sin trabajo. Sin embargo, al menos algunas profesiones no tienen que temer ningún posible avance de la IA. Como informó el New York Times, Steven Schwartz, un abogado de Nueva York, recientemente usado Chatbot de OpenAI para ayudar a redactar un informe legal con resultados desastrosos.

Un abogado que usó ChatGPT para escribir un informe plagado de citas falsas se enfrenta a sancionesEl resultado del chatbot contenía errores gramaticales y declaraciones sin sentido que podrían haberle costado el caso a Schwartz. Esto destaca la importancia de la experiencia humana y el pensamiento crítico en campos como el derecho, donde un solo error puede tener graves consecuencias.

El bufete de abogados de Schwartz está demandando a Avianca en nombre de Roberto Mata, quien alega que resultó herido en un vuelo a la ciudad de Nueva York. Recientemente, la aerolínea le pidió a un juez federal que desestimara el caso. Sin embargo, según los abogados de Mata, existen varios casos que respaldan el caso del demandante, como “Varghese contra China Southern Airlines”, “Martínez contra Delta Airlines” y “Miller contra United Airlines”. Sin embargo, solo hay un problema: nadie pudo identificar las decisiones judiciales citadas en el escrito de Mata porque ChatGPT las creó todas. Esta revelación genera serias preocupaciones sobre la credibilidad del equipo legal de Mata y sus argumentos. También cuestiona la validez de cualquier otra prueba o citación presentada por los abogados de Mata en este caso y en casos anteriores.

El jueves, Schwartz presentó una declaración jurada en la que alegaba que había utilizado ChatGPT para complementar su investigación del caso. Afirmó que desconocía la posibilidad de que el material que presentó pudiera ser falso. También compartió capturas de pantalla donde le había preguntado al chatbot si los casos que citaba eran reales. El chatbot declaró que sí, y le dijo a Schwartz que “bases de datos legales acreditadas” como Westlaw y LexisNexis contenían las decisiones. Sin embargo, luego de una mayor investigación, se descubrió que el chatbot había sido programado para extraer información de fuentes poco confiables. Esto destaca la importancia de verificar los hechos y verificar las fuentes antes de compartir información en línea.

🔥 Recomendado:  LG se asocia con Oorbit para integrar metaverso interoperable en televisores inteligentes

“Lamento haber usado ChatGPT en el pasado y nunca lo haré en el futuro sin una verificación absoluta de su autenticidad”, dijo Schwartz en la corte. El 8 de junio se llevará a cabo una audiencia para discutir posibles sanciones por la “circunstancia sin precedentes” que ha creado Schwartz. La declaración de Schwartz sugiere que puede haber experimentado consecuencias negativas al usar ChatGPT sin verificar su autenticidad. Queda por ver cuál será el resultado de la audiencia y cómo afectará a Schwartz en el futuro.

  • Las autoridades chinas han estado persiguiendo a ChatGPT, un chatbot utilizado por Tencent y Ant Group después de verse envuelto en un escándalo político. Esto ha llevado a que se impongan mayores restricciones en el uso de ChatGPT.
  • Es posible que los usuarios de las redes sociales hayan notado respuestas falsas, que son respuestas generadas por el chatbot ChatGPT. ChatGPT genera respuestas falsas en un intento de parecer más humano.

Leer más artículos relacionados: