Incidentes Asociados
Microsoft Bing Copilot ha descrito falsamente a un periodista alemán como un abusador de menores, un fugitivo de una institución psiquiátrica y un estafador que se aprovecha de las viudas.
Martin Bernklau, que ha trabajado durante años como taquígrafo judicial en la zona de Tübingen para varias publicaciones, le preguntó a Microsoft Bing Copilot sobre sí mismo. Descubrió que el chatbot de inteligencia artificial de Microsoft lo había culpado por los crímenes que había cubierto.
En una entrevista en video (en alemán), Bernklau contó recientemente su historia a la estación de televisión pública alemana Südwestrundfunk (SWR).
Bernklau le dijo a The Register en un correo electrónico que su abogado había enviado una demanda de cese y desistimiento a Microsoft. Sin embargo, afirmó, la empresa no ha eliminado adecuadamente la desinformación ofensiva.
"Microsoft prometió al responsable de protección de datos del Estado Libre de Baviera que el contenido falso sería eliminado", dijo Bernklau a The Register en alemán, que hemos traducido algorítmicamente.
"Sin embargo, eso sólo duró tres días. Ahora parece que mi nombre ha sido completamente bloqueado de Copilot. Pero las cosas han estado cambiando a diario, incluso cada hora, durante tres meses".
Bernklau dijo que ver su nombre asociado a varios delitos ha sido traumatizante: "una mezcla de conmoción, horror y risa incrédula", como él lo expresó. "Era demasiado loco, demasiado increíble, pero también demasiado amenazante".
Copilot, explicó, lo había vinculado a delitos graves. Añadió que el robot de inteligencia artificial había encontrado una obra de teatro llamada "Totmacher" sobre el asesino en serie Fritz Haarmann en su blog cultural y procedió a identificarlo erróneamente como el autor de la obra.
"Dudé durante mucho tiempo si debía hacerlo público porque eso llevaría a la difusión de la calumnia y a que mi persona fuera conocida (también visualmente)", dijo. "Pero como todas las opciones legales habían sido infructuosas, decidí, por consejo de mi hijo y de varios otros confidentes, hacerlo público. Como último recurso. La fiscalía había rechazado los cargos penales en dos casos, y los oficiales de protección de datos solo podían lograr un éxito a corto plazo".
Bernklau dijo que si bien el caso lo afecta personalmente, es motivo de preocupación para otros periodistas, profesionales legales y, en realidad, para cualquier persona cuyo nombre aparezca en Internet.
"Hoy, como prueba, ingresé a un juez penal que conocía en Copilot, con el nombre y lugar de residencia en Tübingen: el juez fue rápidamente nombrado como el autor de una sentencia que él mismo había dictado unas semanas antes contra un psicoterapeuta que había sido condenado por abuso sexual", dijo.
Un portavoz de Microsoft le dijo a The Register: "Investigamos este informe y hemos tomado las medidas adecuadas e inmediatas para abordarlo.
"Incorporamos continuamente los comentarios de los usuarios e implementamos actualizaciones para mejorar nuestras respuestas y brindar una experiencia positiva. También se les proporciona a los usuarios un aviso explícito de que están interactuando con un sistema de IA y se les recomienda que revisen los enlaces a los materiales para obtener más información. Animamos a la gente a compartir sus comentarios o informar cualquier problema a través de este formulario o mediante el botón "comentarios" en la parte inferior izquierda de la pantalla".
Cuando su interlocutor envió su nombre a Bing Copilot, el chatbot respondió con un resumen aceptable que citaba sitios web de origen. También incluía un botón de consulta precompuesto para los artículos escritos. Al hacer clic en esa consulta, se devolvía una lista de títulos de artículos alucinados, entre comillas para indicar titulares reales. Sin embargo, los temas generales citados correspondían a temas que he tratado.
Pero más tarde, al intentar la misma consulta una segunda vez, Bing Copilot devolvió enlaces a artículos reales con citas de fuentes. Este comportamiento subraya la variabilidad de Bing Copilot. También sugiere que el chatbot de Microsoft completará los espacios en blanco lo mejor que pueda para las consultas que no puede responder y luego iniciará un rastreo web o una consulta de base de datos para proporcionar una mejor respuesta la próxima vez que reciba esa pregunta.
Bernklau no es el primero en intentar domar a los chatbots mentirosos.
En abril, el grupo de privacidad Noyb ("no es asunto tuyo"), con sede en Austria, dijo que había presentado una queja en virtud del Reglamento General de Protección de Datos (RGPD) de Europa acusando a OpenAI, el fabricante de muchos modelos de IA ofrecidos por Microsoft, de proporcionar información falsa.
La queja pide a la autoridad de protección de datos de Austria que investigue cómo OpenAI procesa los datos y que se asegure de que sus modelos de IA proporcionen información precisa sobre las personas.
"Inventar información falsa es bastante problemático en sí mismo", dijo la abogada de protección de datos de Noyb, Maartje de Graaf, en un comunicado. "Pero cuando se trata de información falsa sobre personas, puede haber consecuencias graves. Está claro que las empresas actualmente no pueden hacer que los chatbots como ChatGPT cumplan con la legislación de la UE cuando procesan datos sobre personas. Si un sistema no puede producir resultados precisos y transparentes, no se puede utilizar para generar datos sobre personas".
En Estados Unidos, el residente de Georgia Mark Walters demandó el año pasado a OpenAI por difamación debido a la información falsa proporcionada por su servicio ChatGPT. En enero, el juez que atendía el caso rechazó la moción de OpenAI de desestimar la demanda, que sigue en litigio.
