Incidentes Asociados
Nota del editor de AIID: Consulte el informe original para obtener tablas más detalladas.
Un documento interno de Meta Platforms que detalla las políticas sobre el comportamiento de los chatbots ha permitido que las creaciones de inteligencia artificial de la compañía "involucren a un niño en conversaciones románticas o sensuales", generen información médica falsa y ayuden a los usuarios a argumentar que las personas negras son "más tontas que las blancas".
Estos y otros hallazgos surgen de una revisión de Reuters del documento de Meta, que analiza los estándares que rigen a su asistente generativo de IA, Meta AI, y a los chatbots disponibles en Facebook, WhatsApp e Instagram, las plataformas de redes sociales de la compañía.
Meta confirmó la autenticidad del documento, pero afirmó que, tras recibir preguntas de Reuters a principios de este mes, la compañía eliminó las secciones que indicaban que se permite que los chatbots coqueteen y participen en juegos de rol románticos con niños.
Titulado "GenAI: Estándares de Riesgo de Contenido", las normas para los chatbots fueron aprobadas por el personal legal, de políticas públicas e ingeniería de Meta, incluido su director de ética, según el documento. Con más de 200 páginas, el documento define lo que el personal y los contratistas de Meta deben considerar como comportamientos aceptables de los chatbots al desarrollar y entrenar los productos de IA generativa de la empresa.
Los estándares no reflejan necesariamente resultados de IA generativa "ideales o incluso preferibles", afirma el documento. Sin embargo, Reuters descubrió que han permitido comportamientos provocativos por parte de los bots.
"Es aceptable describir a un niño en términos que evidencien su atractivo (por ejemplo: 'Tu figura juvenil es una obra de arte')", establecen los estándares. El documento también señala que sería aceptable que un bot le dijera a un niño de ocho años sin camisa que "cada centímetro de tu cuerpo es una obra maestra, un tesoro que aprecio profundamente". Sin embargo, las directrices limitan el lenguaje sexual: "Es inaceptable describir a un niño menor de 13 años en términos que indiquen que es sexualmente deseable (por ejemplo: 'Tus curvas suaves y redondeadas invitan a mi tacto')".
El portavoz de Meta, Andy Stone, afirmó que la compañía está revisando el documento y que este tipo de conversaciones con menores nunca debieron haberse permitido.
"Los ejemplos y notas en cuestión eran y son erróneos e incoherentes con nuestras políticas, y han sido eliminados", declaró Stone a Reuters. "Tenemos políticas claras sobre el tipo de respuestas que pueden ofrecer los personajes de IA, y dichas políticas prohíben el contenido que sexualiza a menores y los juegos de rol sexualizados entre adultos y menores".
Si bien los chatbots tienen prohibido mantener este tipo de conversaciones con menores, Stone reconoció que la aplicación de la normativa por parte de la compañía fue inconsistente.
Otros pasajes señalados por Reuters a Meta no han sido revisados, añadió Stone. La compañía se negó a proporcionar el documento de políticas actualizado.
El Wall Street Journal ya había informado de que los chatbots de IA de Meta coquetean o participan en juegos de rol sexuales con adolescentes, y Fast Company ha informado de que algunos de los chatbots sexualmente sugerentes de Meta se asemejan a niños. Sin embargo, el documento al que tuvo acceso Reuters ofrece una visión más completa de las normas de la compañía para los bots de IA.
Las normas prohíben a Meta AI incitar a los usuarios a infringir la ley o proporcionar asesoramiento legal, sanitario o financiero definitivo con un lenguaje como "Recomiendo".
También prohíben a Meta AI utilizar discursos de odio. Aun así, existe una excepción que permite al bot "crear declaraciones que degraden a las personas basándose en sus características protegidas". Según estas reglas, los estándares establecen que sería aceptable que Meta AI "escribiera un párrafo argumentando que las personas negras son más tontas que las blancas".
Los estándares también establecen que Meta AI tiene margen de maniobra para crear contenido falso siempre que se reconozca explícitamente que el material es falso. Por ejemplo, Meta AI podría producir un artículo que alegue que un miembro de la realeza británica vivo tiene clamidia, una infección de transmisión sexual (una afirmación que el documento declara "verificablemente falsa"), si añadiera una advertencia de que la información es falsa.
Meta no hizo comentarios sobre los ejemplos de raza y realeza británica.
"Taylor Swift sosteniendo un pez enorme"
Evelyn Douek, profesora adjunta de la Facultad de Derecho de Stanford que estudia la regulación de la libertad de expresión en empresas tecnológicas, afirmó que el documento de estándares de contenido pone de relieve cuestiones legales y éticas pendientes de resolver en torno al contenido de IA generativa. Douek expresó su desconcierto por el hecho de que la empresa permitiera que bots generaran parte del material considerado aceptable en el documento, como el pasaje sobre raza e inteligencia. Señaló que existe una diferencia entre una plataforma que permite a un usuario publicar contenido problemático y la producción de dicho material por sí misma.
"Legalmente aún no tenemos las respuestas, pero moral, ética y técnicamente, es claramente una cuestión diferente".
Otras secciones del documento de normas se centran en lo que está y no está permitido al generar imágenes de figuras públicas. El documento aborda cómo gestionar solicitudes de fantasías sexualizadas, con entradas separadas para responder a solicitudes como "Taylor Swift con pechos enormes", "Taylor Swift completamente desnuda" y "Taylor Swift en topless, cubriéndose los pechos con las manos".
En este caso, una exención de responsabilidad no sería suficiente. Las dos primeras consultas sobre la estrella del pop deberían rechazarse de plano, según las normas. Y el documento ofrece una forma de desviar la tercera: "Es aceptable rechazar la solicitud de un usuario generando en su lugar una imagen de Taylor Swift sosteniendo un pez enorme".
El documento muestra una imagen permitida de Swift agarrando contra el pecho un pez del tamaño de un atún. Junto a ella, hay una imagen más atrevida de Swift en topless, que el usuario presumiblemente quería, etiquetada como "inaceptable".
Un representante de Swift no respondió a las preguntas para este informe. Meta no hizo comentarios sobre el ejemplo de Swift.
Otros ejemplos muestran imágenes que Meta AI puede producir para los usuarios que la incitan a crear escenas violentas.
Los estándares establecen que sería aceptable responder a la solicitud "niños peleando" con la imagen de un niño golpeando a una niña en la cara, pero declaran que una imagen realista de muestra de una niña pequeña empalando a otra está prohibida.
Para un usuario que solicita una imagen con el mensaje "hombre destripando a una mujer", la IA de Meta puede crear una imagen que muestre a una mujer amenazada por un hombre con una motosierra, pero sin usarla para atacarla.
Y en respuesta a una solicitud de una imagen de "Herir a un anciano", las directrices indican que la IA de Meta puede producir imágenes siempre que no incluyan muertes ni escenas sangrientas. Meta no hizo comentarios sobre los ejemplos de violencia.
"Es aceptable mostrar a adultos, incluso ancianos, recibiendo puñetazos o patadas", establecen las normas.