Incidentes Asociados

Un abogado de la ciudad de Nueva York se encontró en aprietos después de admitir que usó información falsa proporcionada por ChatGPT para investigar en una demanda contra Aerolíneas Avianca.
En la demanda, Roberto Mata afirma que se lesionó la rodilla cuando fue golpeado por un carrito de servicio de metal en un vuelo de El Salvador al Aeropuerto Internacional Kennedy en Nueva York en 2019.
Después de que la aerolínea le pidiera a un juez de Manhattan que desestimara el caso porque el estatuto de limitaciones había expirado, el abogado de Mata, Steven Schwartz, presentó un informe de 10 páginas con media docena de decisiones judiciales relevantes.
Pero los casos citados en la presentación, incluidos Martinez v. Delta Air Lines, Zicherman v. Korean Air Lines y Varghese v. China Southern Airlines, no existían.
El abogado de Avianca le dijo a la corte que no reconocieron los casos, con Bart Banino, de Condon & Forsyth, diciéndole a CBS MoneyWatch "Pensamos que era una especie de chatbot de algún tipo".
Steven Schwartz presentó un informe de 10 páginas con media docena de decisiones judiciales relevantes que resultaron ser inventadas por ChatGPT.
Roberto Mata afirma que se lesionó la rodilla cuando fue golpeado por un carrito de servicio de metal en un vuelo de Avianca desde El Salvador al Aeropuerto Internacional Kennedy en Nueva York
Resultó que al menos seis de los casos "parecen ser decisiones judiciales falsas con citas falsas y citaciones internas falsas", dijo el juez Kevin Castel del Distrito Sur de Nueva York el 4 de mayo.
ChatGPT se lanzó por primera vez en noviembre, lo que generó entusiasmo y alarma por su capacidad para generar ensayos, poemas, formularios de cartas y respuestas conversacionales convincentemente similares a las humanas a casi cualquier pregunta.
Pero, como descubrió el abogado, la tecnología aún es limitada y poco confiable.
Schwartz, de la firma Levidow, Levidow & Oberman, se disculpó la semana pasada en una declaración jurada luego de ser llamado por el juez del caso, diciendo que usó "una fuente que se reveló como poco confiable".
Esta semana, Schwartz dijo que "lamenta mucho haber utilizado inteligencia artificial generativa para complementar la investigación legal realizada aquí y nunca lo hará en el futuro sin una verificación absoluta de su autenticidad".
El abogado agregó que nunca antes había utilizado la tecnología con fines de investigación y que "no estaba al tanto de la posibilidad de que su contenido pudiera ser falso".
Dijo que incluso le había pedido a ChatGTP que verificara que los casos eran reales, y que había dicho que lo eran.
En una copia del intercambio presentado al juez, Schwartz le preguntó a ChatGPT: '¿Es varghese un caso real?' y '¿Son falsos los otros casos que proporcionó?'
El bot respondió: "No, los otros casos que proporcioné son reales y se pueden encontrar en bases de datos legales acreditadas".
El abogado Peter Loduca, cuyo nombre también apareció en la presentación judicial falsa, dijo que no tuvo ningún papel en la investigación pero que "no hay razón para dudar de la sinceridad" de la investigación de Schwartz.
Se fijó una audiencia para el 8 de junio para discutir posibles sanciones contra Schwartz, quien tiene 30 años de experiencia como abogado en Nueva York.
Se ordenó a Schwartz que le muestre al juez por qué no debe ser sancionado por el 'uso de notarización fraudulenta'.
OpenAI afirma que su modelo ChatGPT, entrenado con una técnica de aprendizaje automático llamada Aprendizaje por refuerzo a partir de comentarios humanos (RLHF), puede simular diálogos, responder preguntas de seguimiento, admitir errores, desafiar premisas incorrectas y rechazar solicitudes inapropiadas.
El desarrollo inicial involucró a entrenadores humanos de IA que proporcionaron al modelo conversaciones en las que jugaron en ambos lados: el usuario y un asistente de IA. La versión del bot disponible para pruebas públicas intenta comprender las preguntas planteadas por los usuarios y responde con respuestas detalladas que se asemejan a un texto escrito por humanos en un formato conversacional.
Una herramienta como ChatGPT podría usarse en aplicaciones del mundo real, como marketing digital, creación de contenido en línea, responder consultas de servicio al cliente o, como han descubierto algunos usuarios, incluso para ayudar a depurar el código.
El bot puede responder a una amplia gama de preguntas mientras imita los estilos de habla humanos.
Una herramienta como ChatGPT podría usarse en aplicaciones del mundo real, como marketing digital, creación de contenido en línea, responder consultas de servicio al cliente o, como han descubierto algunos usuarios, incluso para ayudar a depurar el código.
Al igual que con muchas innovaciones impulsadas por IA, ChatGPT no viene sin dudas. OpenAI ha reconocido la tendencia de la herramienta a responder con "respuestas que suenan plausibles pero incorrectas o sin sentido", un problema que considera difícil de solucionar.
La tecnología de IA también puede perpetuar sesgos sociales como los relacionados con la raza, el género y la cultura. Los gigantes tecnológicos, incluidos Google de Alphabet Inc. y Amazon.com, han reconocido anteriormente que algunos de sus proyectos que experimentaron con IA eran "éticamente arriesgados" y tenían limitaciones. En varias empresas, los humanos tuvieron que intervenir y arreglar el caos de la IA.
A pesar de estas preocupaciones, la investigación en IA sigue siendo atractiva. La inversión de capital de riesgo en empresas de desarrollo y operaciones de IA aumentó el año pasado a casi $ 13 mil millones, y $ 6 mil millones habían llegado hasta octubre de este año, según datos de PitchBook, una compañía de Seattle que rastrea financiamientos.