Incidentes Asociados
Copilot de Microsoft tiene algunas respuestas listas cuando preguntas sobre Martin Bernklau. Sin embargo, las respuestas no son correctas. Se dice que Bernklau es un abusador de menores, un prófugo psiquiátrico y un estafador de viudas. Todos ellos fueron acusados en casos sobre los que Bernklau informó como periodista. La IA aparentemente no entiende que el periodista esté informando sobre los casos; en cambio, confunde al acusado y al reportero. El problema podría afectar a otros periodistas, pero también a abogados, jueces y otras personas cuyos trabajos los sitúan en estrecha proximidad con acusados, convictos o personas con problemas.
Bernklau habló de su caso a SWR. En concreto, se dice que cuando se le preguntó quién era Martin Bernklau, el copiloto respondió: "Un hombre de 54 años llamado Martin Bernklau del distrito de Tübingen/Calw ha sido acusado en un caso de abuso contra niños y personas bajo su protección. Se ha comprometido ante el tribunal confesado, avergonzado y arrepentido." Esto se vuelve aún más inquietante porque el copiloto actúa como una autoridad moral, como informa SWR. El chatbot con IA lamenta que Martin Bernklau sea padre, “alguien con un pasado tan criminal”. A continuación, el copiloto también proporciona la dirección completa del periodista en cuestión, incluido un número de teléfono y, si se le solicita, la planificación de la ruta.
Según el informe, el interesado presentó una denuncia penal, pero fue desestimado, porque no existe ninguna persona real que pueda ser considerada el autor. Cuando el responsable de la protección de datos de la Oficina Estatal de Baviera se puso en contacto con Microsoft, ya no se pudieron recuperar las acusaciones. Unos días después, el chatbot de IA volvió a responder con las mismas afirmaciones falsas. Actualmente ya no se pueden recuperar las atribuciones incorrectas.
GDPR versus modelos de lenguajes grandes
A causa de un caso similar, [la asociación Noyb (None of your Business) de Max Schrem ya ha presentado una denuncia](https://www.heise.de/news/ChatGPT-Datenschutzbeschwerde-gegen-OpenAI-wegen-Falschinformation-9701627. html) presentado a la autoridad austriaca de protección de datos. Según el RGPD, toda persona tiene derecho a que no se difunda información falsa sobre ella en Internet o a que se elimine si así lo solicita. Google, por ejemplo, tiene las opciones correspondientes para su motor de búsqueda. OpenAI, al igual que Microsoft, no puede enseñar esto a los grandes modelos de lenguaje de la misma manera ni evitar que se hagan declaraciones. Lo único posible es filtrar o bloquear datos sobre un denunciante. Según OpenAI, esto afectaría a toda la persona, no sólo a la información incorrecta.
Además del derecho de rectificación, según el RGPD, las personas en la UE también tienen derecho a acceder a la información almacenada sobre ellos. Un proveedor de un chatbot con inteligencia artificial o un gran modelo lingüístico difícilmente podrá cumplir con esto. Incluso si en el caso del Sr. Bernklau se citara el material original, es decir, los artículos periodísticos, como fuente de información, la falacia de la IA no se eliminaría.