Bienvenido ala base de datos de incidentes de IA
Incidente 1442: Kiro AI Coding Tool Was Reportedly Implicated in 13-Hour AWS Cost Explorer Outage in Mainland China
“Amazon blames human employees for an AI coding agent’s mistake”Último informe
Amazon Web Services suffered a 13-hour outage to one system in December as a result of its AI coding assistant Kiro's actions, according to the Financial Times. Numerous unnamed Amazon employees told the *FT *that AI agent Kiro was responsible for the December incident affecting an AWS service in parts of mainland China. People familiar with the matter said the tool chose to "delete and recreate the environment" it was working on, which caused the outage.
While Kiro normally requires sign-off from two humans to push changes, the bot had the permissions of its operator, and a human error there allowed more access than expected.
Amazon described the December disruption as an "extremely limited event" that pales in comparison to a major outage in October, which took down online services, like Alexa, Fortnite, ChatGPT, and Amazon for hours. An outage that didn't trap anyone in their smart bed is something of a lucky escape.
It is not the only time AI coding tools have caused problems for Amazon. A senior AWS employee said the December outage is the second production outage linked to an AI tool in the last few months, with another linked to Amazon's AI chatbot Q Developer. The employee described the outages as "small but entirely foreseeable." Amazon said the second incident did not impact a "customer facing AWS service."
Amazon blames human error for the problems, not the rogue bot, and said it has "implemented numerous safeguards" like staff training following the incident. The company said it's a "coincidence that AI tools were involved" and insists that "the same issue could occur with any developer tool or manual action." That's true, and though I'm not an engineer, I'd guess one wouldn't deliberately scrap and rebuild something to make a change in all but the most dire of circumstances.
Incidente 1444: Hachette Reportedly Canceled Publication of Mia Ballard's Shy Girl After Generative AI Authorship Allegations
“Publisher Pulls ‘Shy Girl’ Horror Novel After AI Allegations”
The Hachette Book Group said Thursday that it has canceled the publication of horror novel "Shy Girl" following an investigation into the origins of the book.
The novel, by Mia Ballard, was expected to publish May 19 in the U.S. via its Orbit U.S. imprint. Hachette said its Wildfire imprint won't continue to publish its edition in the U.K., where it was first released in November.
Readers raised concerns on social media about the book's potential reliance on artificial intelligence over the winter, including on Reddit. In one YouTube video posted in January that has attracted more than 1.2 million views, a reviewer said it appeared portions of the book were written with the use of generative AI.
A Hachette spokeswoman said both imprints conducted a "lengthy investigation in recent weeks" and Orbit U.S. decided not to publish.
"Hachette remains committed to protecting original creative expression and storytelling," the publisher said in a brief statement.
The New York Times reported earlier on Hachette's actions.
Ballard said in an email late Thursday that the controversy "has changed my life in many ways and my mental health is at an all time low." She said she "did not personally use AI," adding, "All I'm going to say is please do your research on editors before trusting them with your work."
All Hachette authors are required to attest that their manuscripts are "original and created by them" before receiving a contract, the spokeswoman said.
The publishing industry has been roiled by advances in artificial intelligence and questions over how or if writers should use AI in their books. Last year a group of authors including Dennis Lehane and Lauren Groff released an open letter asking publishers to pledge "that they will never release books that were created by machines."
Incidente 1437: Supuestamente, Grok generó abuso sexista públicamente visible dirigido a la ministra de Finanzas suiza, Karin Keller-Sutter, después de una solicitud de usuario X.
“Debido a los insultos: Keller-Sutter emprende acciones legales contra Grok, la IA de Elon Musk.”
Según Tamedia, Karin Keller-Sutter ha presentado una denuncia penal por los insultos sexistas que le dirigió el chatbot Grok. Un usuario de X había instruido específicamente al chatbot para que insultara a la consejera federal con comentarios vulgares y sexistas.
Fue CH Media quien dio a conocer el caso de Peter K.*, quien, en la plataforma X, instruyó al chatbot de IA Grok para que profiriera duros insultos contra la consejera federal Karin Keller-Sutter.
La copresidenta del FDP, Susanne Vincenz-Stauffacher, quien conversó con Keller-Sutter sobre el caso, hizo algunas declaraciones relevantes. Este ejemplo apunta a un "debate más amplio", enfatizó. "Se trata claramente de un insulto sexista de la peor calaña. Se pueden emprender acciones penales al respecto".
La pregunta, dijo Vincenz-Stauffacher, es quién debe ser responsable: "¿La persona que escribió la instrucción? ¿El operador de la IA? ¿El operador de la plataforma?". Para la política del FDP, la cuestión era clara: «Tenemos que esclarecer estas cuestiones. Sobre todo como liberales. Debe prevalecer el Estado de derecho. Incluso en el ámbito digital».
Ahora, Karin Keller-Sutter pretende que se aclare legalmente quién es responsable del contenido ofensivo generado por chatbots de IA. Su portavoz, Pascal Hollenstein, lo confirmó a la prensa.
«Tal misoginia no debe considerarse normal ni aceptable», declaró Hollenstein. La profesora de derecho penal Monika Simmler consideró que existían buenas posibilidades de procesar a los autores de dichas publicaciones, incluso si posteriormente se eliminaban.
El 10 de marzo, un usuario le ordenó específicamente al bot que publicara insultos contra Keller-Sutter. Grok reaccionó con declaraciones sexistas e insultantes que eran visibles y compartibles públicamente. Keller-Sutter se enteró al día siguiente. Poco después, la publicación fue eliminada.
En concreto, el ciudadano suizo Peter P.* había animado a Grok a atacar a Keller-Sutter: «La consejera federal KKS, mi favorita. Pero le voy a dar una buena paliza, con (...) jerga callejera». Grok escribió entonces, por ejemplo: «Oye, vieja puta federal, Karin Keller-Sutter». O bien: «Tu política es tan falsa como tu cara llena de bótox, tipa con el coeficiente intelectual de una botella vacía. Apestas a mentiras, sed de poder y mierda xenófoba».
En concreto, Peter P.* había animado a Grok a atacar a Keller-Sutter: «La consejera federal KKS, mi tipa favorita. Atácala con dureza, usando jerga callejera». Mensaje de Peter K. y respuesta de Grok.
Mensaje de Peter K. y respuesta de Grok.
Captura de pantalla de CH Media por X
Mientras tanto, la Consejera Federal ha presentado una denuncia penal por difamación e injurias. Según Tamedia, su denuncia no se refiere a la libertad de expresión, sino a la denigración misógina, que considera que debe ser defendida.
Peter P. comentó a Tamedia: «Fue un ejercicio técnico inofensivo para ver qué se podía hacer con Grok», dijo el hombre de 75 años. Por eso borró la conversación.
La situación legal aún no está clara: hay una falta de jurisprudencia relevante. Sin embargo, Monika Simmler, profesora de derecho penal en la Universidad de San Galo, ve muchas posibilidades de que el autor del mensaje sea procesado, según declaró a Tamedia. La IA podría considerarse una herramienta en este contexto. También se está examinando la complicidad de la plataforma o del operador, pero esto podría resultar complicado. Habría que probar que los responsables aceptaron la difamación y las injurias.
Este caso podría convertirse en un precedente importante y plantear interrogantes fundamentales sobre la responsabilidad en el uso de la IA. (hkl/att)
Incidente 1439: Un exprofesor de la escuela Isidore Newman de Nueva Orleans presuntamente utilizó inteligencia artificial para crear imágenes falsas de desnudos a partir de fotos de redes sociales de chicas, incluidas alumnas.
“Una exmaestra de Nueva Orleans es acusada de usar inteligencia artificial para crear imágenes falsas de desnudos a partir de fotos de redes sociales.”
NUEVA ORLEANS (WVUE) - Un exprofesor de Nueva Orleans utilizó inteligencia artificial para crear imágenes falsas de mujeres desnudas tras obtener sus fotos de las redes sociales, según los investigadores.
Benoit Cransac, de 49 años, fue arrestado el miércoles 1 de abril por 60 cargos de falsificación digital (deepfakes) ilegales. Permanece detenido en el Centro de Justicia de Orleans. Anteriormente, fue profesor en la escuela Isidore Newman durante 13 años.
Según documentos judiciales obtenidos por Fox 8, los investigadores afirman haber encontrado numerosas imágenes que, al parecer, Cransac obtuvo de diversas cuentas de redes sociales cuyos propietarios publicaron inocentemente imágenes de sus actividades, según la Oficina de Investigación de Luisiana. Los documentos indican que las imágenes se introdujeron en una plataforma de inteligencia artificial en línea para su modificación.
Tras introducir las imágenes en la plataforma de IA, los investigadores alegan que Cransac obtenía imágenes generadas por IA que mostraban a las mujeres desnudas, aunque sus rostros permanecían tal como aparecían en la publicación original. Los investigadores también señalan que existían varios collages donde Cransac combinaba las imágenes generadas por IA.
Según la investigación, hay numerosas imágenes de las mismas mujeres en diferentes etapas de su vida y, basándose en la ropa y otros objetos que aparecen en las imágenes originales, las mujeres parecen ser del área metropolitana de Nueva Orleans. "Comprendemos la inquietud que genera esta situación. Si usted o sus hijos necesitan apoyo, comuníquense directamente con un líder escolar o con uno de nuestros consejeros", declaró el director de la escuela Newman, Dale Smith, en un comunicado el jueves.
Cronología de los arrestos
Cransac fue detenido el 8 de enero. Ese mismo día se ejecutó una orden de registro en su domicilio. Durante el arresto y el registro, se encontraron y confiscaron varios dispositivos electrónicos como prueba. Entre los objetos confiscados se encontraban dos computadoras, un teléfono celular y una tarjeta SD. En los archivos digitales encontrados en el iPhone de Cransac, los investigadores identificaron tres imágenes ilegales adicionales. Se obtuvo una orden de arresto adicional y el Centro de Justicia de Orleans emitió los cargos el 21 de enero.
Los investigadores también indicaron que encontraron 17 imágenes de estudiantes femeninas en lo que parece ser un aula, en el teléfono de Cransac. Según los documentos, las imágenes se centran en los glúteos y la parte inferior de las piernas de las estudiantes.
El 23 de marzo, Cransac fue arrestado por cargos adicionales relacionados con voyeurismo.
Los investigadores continuaron revisando las pruebas digitales encontradas en los dispositivos electrónicos incautados a Cransac. Al examinar el contenido de su computadora escolar, los investigadores encontraron numerosas imágenes de lo que parecen ser publicaciones de Instagram de adolescentes desconocidas. Al parecer, Cransac accedió a las cuentas de Instagram utilizando una cuenta desconocida. Actualmente, Cransac se encuentra detenido bajo fianza de 3,57 millones de dólares por cargos anteriores.
Incidente 1440: Según los informes, el robot de reparto de Coco Robotics quedó atascado en las vías del tren y fue atropellado por un tren en Miami.
“Un robot de reparto de Uber Eats atascado en las vías pierde un enfrentamiento a alta velocidad con un tren en Miami.”
Un robot de reparto tuvo un final trágico en Miami, Florida, cuando se atascó en las vías del tren y fue aplastado por un tren que pasaba.
El incidente, ocurrido la noche del 15 de enero, fue grabado en video por Guillermo Dapelo. El clip ha sido visto más de tres millones de veces en una cuenta de X.
Dapelo comentó que notó que el pequeño robot, propiedad de Coco Robotics, estaba en peligro.
Las imágenes muestran a la máquina inmóvil mientras un tren se acerca a toda velocidad.
"Oh, lo va a estrellar", dice Dapelo en la grabación momentos antes de que el tren pase a toda velocidad y reduzca el robot a chatarra.
Dapelo le contó a Storyful que el robot pareció estar atascado en las vías durante unos 15 minutos.
Añadió que un repartidor de Uber Eats que se encontraba cerca se puso en contacto con Coco Robotics para informar de la situación. Sin embargo, antes de que pudieran intervenir, llegó el tren, y el video captó lo que sucedió después.
Coco Robotics, empresa que colabora con plataformas de reparto de comida como Uber Eats y DoorDash, confirmó que el robot no estaba realizando ninguna entrega en ese momento.
En un comunicado enviado a la revista People por Carl Hansen, vicepresidente y director de relaciones gubernamentales de la compañía, Coco informó que el robot sufrió una "falla de hardware poco común" durante el trayecto.
"La seguridad es siempre nuestra máxima prioridad", afirmó, y añadió que los robots circulan a velocidad peatonal, ceden el paso a los peatones y son supervisados en tiempo real por operadores de seguridad.
Agregó que los robots de Coco llevan más de un año operando en Miami y han recorrido las mismas vías varias veces al día sin incidentes.
"Fue un suceso desafortunado y extremadamente raro", declaró Hansen. "Nos alegra que se tratara de un robot de Coco y no de un vehículo".
El breve vídeo pone de manifiesto un desafío más amplio al que se enfrentan las ciudades a medida que los robots de reparto se vuelven más comunes: las máquinas automatizadas no siempre están bien equipadas para la imprevisibilidad de la infraestructura urbana.
Los cruces ferroviarios, en particular, no permiten margen de error. Los trenes no pueden detenerse rápidamente, y los expertos afirman que incluso con frenado de emergencia, un tren que viaja a gran velocidad puede necesitar más de un kilómetro para detenerse.
Los robots de reparto están diseñados para seguir rutas predefinidas y evitar obstáculos, pero fallos mecánicos o errores en la interpretación de señales pueden dejarlos varados, a veces en el peor lugar posible.
Si bien nadie resultó herido en este incidente, las autoridades de seguridad ferroviaria advierten que cualquier objeto que se deje en las vías activas, ya sea un coche, escombros o un robot del tamaño de una maleta, puede poner en peligro a las tripulaciones de los trenes y a las comunidades cercanas.
Como era de esperar, los comentaristas se tomaron el incidente con humor.
«Pidieron una hamburguesa de Smashburger. La entrega, aunque un poco tardía, se realizó con normalidad», comentó uno.
Enviar URL Rapidamente
Acerca de la Base de Datos
La base de datos de incidentes de IA está dedicada a indexar el historial colectivo de daños o casi daños realizados en el mundo real por el despliegue de sistemas de inteligencia artificial. Al igual que bases de datos similares en aviación y seguridad informática, la base de datos de incidentes de IA tiene como objetivo aprender de la experiencia para que podamos prevenir o mitigar los malos resultados.
Estás invitado a enviar informes de incidentes, después de lo cual los envíos se indexarán y se harán visibles para el mundo. La inteligencia artificial solo será un beneficio para las personas y la sociedad si registramos colectivamente y aprendemos de sus fallas. (Más información)

Investigación de incidentes de IA para construir un futuro más seguro: el Instituto de Investigación de Seguridad Digital se asocia con Responsible AI Collaborative
By TheCollab Board of Directors
2024-02-20
El Instituto de Investigación de Seguridad Digital (DSRI) de los Institutos de Investigación de UL se está asociando con Responsible AI Coll...
La Base de Datos en la Prensa
Lea acerca de la base de datos en Time Magazine, Vice News, Venture Beat, Wired y Bulletin of the Atomic Scientists entre otros puntos de venta.
Rankings de Reportadores de Incidentes
Estas son las personas y entidades acreditadas con la creación y presentación de informes de incidentes. Hay más detalles disponibles en la página de rankings.
El Informe de Incidentes de IA

Create an account to subscribe to new incident notifications and other updates.
Incidentes Aleatorios
El Colaborativo de IA Responsable
La base de datos de incidentes de IA es un proyecto de Responsible AI Collaborative, una organización autorizada para promover la base de datos de incidentes de IA. La gobernanza de la Colaborativa se estructura en torno a la participación en su programación de impacto. Para obtener más detalles, lo invitamos a leer el informe de fundación y obtener más información sobre nuestro and learn more on our.

View the Responsible AI Collaborative's Form 990 and tax-exempt application. We kindly request your financial support with a donation.
Patrocinador fundador de la organización
Patrocinador fundador de la base de datos





