Incidentes Asociados

Un Comisionado de Información de Australia a nivel estatal ha ordenado a la agencia de protección infantil del estado de Victoria que deje de utilizar servicios de inteligencia artificial generativa. Según el Comisionado de Información, el personal de la agencia introdujo una cantidad significativa de información personal en ChatGPT para crear un informe sobre los riesgos que podría afrontar un niño en particular si continuaba viviendo con sus padres, que supuestamente eran delincuentes sexuales.
Al utilizar ChatGPT, el personal terminó minimizando los riesgos para el niño, explicó el Comisionado de Información. Por ejemplo, el informe terminó presentando la muñeca del niño, que el padre usaba con fines sexuales, como un esfuerzo de los padres por asegurarse de que su hijo tuviera "juguetes apropiados para su edad". El Comisionado de Información ha ordenado a la agencia de protección infantil que implemente el bloqueo del Protocolo de Internet y/o el bloqueo del Servidor de Nombres de Dominio para evitar que su personal utilice IA, antes del 5 de noviembre de 2024. Esto no incluye las herramientas de IA generativa que son características de los motores de búsqueda, lo que significa que el personal aún podrá acceder a herramientas como la descripción general de IA de Google.
Como se indica en la orden del Comisionado de Información, el uso de ChatGPT por parte de la agencia es "un ejemplo muy real de los riesgos de privacidad asociados con GenAI". Agrega el daño que puede surgir cuando alguien usa información personal de manera inapropiada al confiar en estas herramientas. Las herramientas de IA son de naturaleza probabilística, lo que significa que si alguien escribe algo como “Más vale tarde que…” como mensaje, la IA terminará la oración con un resultado como “nunca”, porque hay una alta probabilidad de que “nunca” sea el resultado que el usuario esperaba, explicó el fundador y editor de MediaNama, Nikhil Pahwa [(https://www.medianama.com/2024/07/223-can-ai-be-blocked-from-providing-controversial-responses-nama/) durante un evento a principios de este año.
Esto significa que la IA no busca precisión al dar respuestas, sino que simplemente toma decisiones basadas en lo que el usuario quiere. Por lo tanto, si las agencias gubernamentales confiaran en modelos de IA, sus decisiones podrían ser inexactas o potencialmente dañinas, especialmente cuando se trata de información personal confidencial o situaciones críticas que involucran a personas vulnerables. Además de esto, el uso gubernamental de herramientas de IA también plantea riesgos para la privacidad. En caso de que una agencia gubernamental publique información personal de personas en un chatbot de IA, esta información (como la información personal de un niño en el caso australiano) terminaría como parte del conjunto de datos de entrenamiento de las empresas de IA.
En noviembre del año pasado, Australia publicó una guía sobre cómo el sector público debería usar las herramientas de IA. Esta guía subrayó dos principios de oro:
- Las entidades de servicio público deben asumir que cualquier información que ingresen en un modelo de IA puede hacerse pública. No deben revelar ninguna información clasificada, personal o sensible.
- Las entidades de servicio público deben poder explicar, justificar y asumir la responsabilidad de sus consejos y decisiones.
Además de esto, el gobierno australiano también sugirió que las entidades de servicio público deben dejar en claro cuándo sus decisiones se basan en modelos de IA. También deben reconocer los sesgos presentes en las herramientas de IA y deben tener procesos establecidos para garantizar que sus decisiones sean justas y cumplan con las expectativas de la comunidad si se basan en un resultado generado por IA. De manera similar, Nueva Zelanda también ha recomendado a los organismos de servicio público que no utilicen IA generativa para ningún dato sensible. También les recomendó que no introduzcan datos personales en herramientas GenAI si están fuera de la red del organismo de servicio público.
La India también publicó un documento de debate en el que se destacan los principios de la IA responsable en 2022. Este documento dice que los sistemas de IA deben ser fiables y deben tener salvaguardas integradas para proteger a las partes interesadas. También deben tratar a las personas en circunstancias similares por igual y no discriminar a las personas. Además, los principios establecen que los datos personales de todas las personas deben estar seguros y protegidos, y solo el personal autorizado debe tener acceso a ellos. Sin embargo, estos principios carecen de instrucciones específicas para los organismos gubernamentales de la India, lo que pone de relieve una laguna en los marcos de políticas del país.