Incidentes Asociados

Un juez de distrito en Texas [publicó una orden] (https://www.txnd.uscourts.gov/judge/judge-brantley-starr) el martes que prohibió el uso de inteligencia artificial generativa para escribir documentos judiciales sin un hecho humano. verifique a medida que la tecnología se vuelve más común en entornos legales a pesar de sus deficiencias bien documentadas, como inventar cosas.
“Todos los abogados que comparecen ante el Tribunal deben presentar en el expediente un certificado que acredite que ninguna parte de la presentación fue redactada por inteligencia artificial generativa (como ChatGPT, Harvey.AI o Google Bard) o que cualquier lenguaje redactado por inteligencia artificial generativa fue verificada por un ser humano para verificar su precisión, utilizando reporteros impresos o bases de datos legales tradicionales ”, indicó la orden del juez Brantley Starr.
Esta decisión sigue a un incidente en el que un abogado de Manhattan llamado Steven A. Schwartz [utilizó ChatGPT para escribir un informe de 10 páginas] (https://www.nytimes.com/2023/05/27/nyregion/avianca-airline-lawsuit- chatgpt.html) que citaba varios casos inventados por el chatbot, como "Martínez contra Delta Air Lines" y "Varghese contra China Southern Airlines". Después de que Schwartz envió el escrito a un juez federal de Manhattan, nadie pudo encontrar las decisiones o las citas incluidas, y Schwartz luego admitió en una declaración jurada que había usado ChatGPT para realizar una investigación legal.
Incluso Sam Altman, el CEO del fabricante de ChatGPT, OpenAI, ha advertido contra el uso del chatbot para propósitos más serios y de alto riesgo. En una entrevista con Kara Swisher de Intelligencer, Altman admitió que El bot a veces inventa cosas y presenta a los usuarios información errónea.
La capacidad de los modelos de lenguaje grande (LLM) como ChatGPT para inventar cosas, lo que también se conoce como alucinación, es un problema sobre el que los investigadores de IA han hablado. En un estudio realizado por investigadores de Microsoft para acompañar el lanzamiento de GPT-4, escribieron que el chatbot tiene problemas para saber cuándo está seguro o simplemente adivinando, inventa hechos que no están en sus datos de entrenamiento, no tiene forma de verificar si su salida es consistente con sus datos de entrenamiento y hereda sesgos. y prejuicios en los datos de entrenamiento.
“Estas plataformas en su estado actual son propensas a alucinaciones y prejuicios. Sobre las alucinaciones, inventan cosas, incluso citas y menciones”, escribió Starr en su orden. “Otro problema es la confiabilidad o el sesgo. Mientras que los abogados hacen un juramento para dejar de lado sus prejuicios, prejuicios y creencias personales para defender fielmente la ley y representar a sus clientes, la inteligencia artificial generativa es el producto de la programación ideada por humanos que no tenían que hacer tal juramento. Como tal, estos sistemas no guardan lealtad a ningún cliente, el estado de derecho o las leyes y la Constitución de los Estados Unidos (o, como se mencionó anteriormente, la verdad)”.
Starr adjuntó un “Certificado obligatorio sobre inteligencia artificial generativa” que los abogados deben firmar cuando comparecen ante su tribunal. “Además, certifico que ninguna parte de ninguna presentación en este caso será redactada por inteligencia artificial generativa o que cualquier lenguaje redactado por inteligencia artificial generativa, incluidas citas, citas, afirmaciones parafraseadas y análisis legal, se verificará para verificar su precisión, usando letra impresa. reporteros o bases de datos legales tradicionales, por un ser humano antes de que se presente ante el Tribunal”, [establece el contrato](https://www.txnd.uscourts.gov/judge/judge-brantley-starr#:~:text= Una%20plantilla%20Certificado%20sobre%20juez%2DRequisitos%20específicos%20se%20proporciona%20aquí).
Fuera de los tribunales, ya se ha demostrado que la IA difunde información errónea. La semana pasada, decenas de cuentas verificadas en Twitter publicaron sobre una explosión cerca del Pentágono junto con una IA -imagen generada. También hubo una tendencia de Reddit en marzo en la que las personas crearían eventos históricos falsos usando IA, como "El gran terremoto y tsunami de Cascadia 9.1 de 2001".