Bienvenido ala base de datos de incidentes de IA
Incidente 1273: Purportedly AI-Generated Fake Videos of Louvre Heist Reportedly Circulated Widely Online
“AI-generated scenes ‘from France’s 2025 Louvre heist’ circulate in Hong Kong”Último informe
A daring daytime heist of jewels from the Louvre museum in Paris on October 19 made international headlines.
During the heist, the thieves parked a truck with an extendable ladder under the museum's Apollo Gallery, and used cutting equipment to get through a window and display cases to steal the jewellery.
A Facebook reel featuring footage purportedly of the theft was posted online by a Hong Kong-based user with more than 240,000 followers.
"At around 9.30am, four masked men ... broke into the building from the balcony and took away the jewellery on display," a voice said in Mandarin at the 41-second mark of the video, as two separate clips of masked people breaking glass cases are shown.

A screenshot of different points in the Facebook reel showing the two fabricated videos of the heist. Photo: Facebook/SCMP Composite
However, a digital forensics expert and the Post's own checks show they are not genuine, and likely generated by AI.
The two supposed videos of the heist have also circulated widely online in the aftermath of the robbery, such as on Douyin -- here and here -- and on RedNote here.
Investigation
The Post reached out to AI Forensics, a European non-profit organisation that investigates digital manipulation. It said that the videos contained a "strong indication" of being AI-generated.
"In both cases objects disappear and appear in the hands of the AI-generated thieves, while their hands morph and fingers disappear," researcher Natalia Stanusch told the Post.

Instances of morphed hands (left) and a disappearing crowbar (right) highlighted in the two fabricated videos. Photo: Facebook/Composite via AI Forensics
Stanusch also noted both videos contained partially obscured watermarks from OpenAI's Sora, an AI video-generation tool.

Instances of the Sora watermarks in both videos. Photo: Facebook/Composite via AI Forensics
In the Post's own checks, the scenes were compared to existing visuals of the Apollo Gallery on the Louvre's website.
In the first clip, the appearance of the gallery entrance is notably different from the genuine article.

A comparison of the entrance of the gallery in the fabricated video (left) with an image of the genuine Apollo Gallery (right). Photo: Facebook/Louvre/SCMP Composite
In the second clip, the motifs lining the actual gallery's roof and far wall do not match.

A comparison of the roof structure and artwork from the fabricated video (left) and the genuine Louvre gallery (right). Photo: Facebook/Louvre/SCMP Composite
SCMP Fact-Check has reached out to the Facebook account owner for comment.
Verdict: False
Incidente 1268: Según informes, los sistemas automatizados de publicidad y segmentación de Meta permitieron obtener ingresos fraudulentos a gran escala.
“Archivos de fraude de Facebook”
Un impactante informe de Reuters, elaborado por Jeff Horwitz, analiza documentos internos filtrados que revelan que: el 10% de los ingresos brutos de Meta proviene de anuncios de productos fraudulentos y estafas; la empresa lo sabe; y decidió no tomar medidas al respecto, porque las multas por facilitar este fraude devastador son mucho menores que los ingresos esperados por contribuir a la destrucción de la vida de sus usuarios:
La esencia de la hipótesis de la degradación de Meta radica en que las empresas degradan deliberadamente sus productos y servicios para beneficiarse a costa de los usuarios, simplemente porque pueden. Un entorno político enshitógeno que recompensa el engaño, el espionaje y la monopolización inevitablemente dará lugar a monopolistas que engañan, espían y se dedican a la deshonestidad:
https://pluralistic.net/2025/09/10/say-their-names/#object-permanence
No se podría encontrar un ejemplo mejor que los Archivos de Fraude de Facebook de Reuters. La descripción principal apenas le hace justicia a este escándalo. La depravación y la avaricia de Meta ante el fraude y las estafas verdaderamente horribles en su plataforma son asombrosas.
Aquí hay algunos detalles: primero, las propias cifras de la compañía estiman que publican 15 mil millones de anuncios fraudulentos cada día, que generan 7 mil millones de dólares en ingresos cada año. A pesar de que sus propios sistemas automáticos detectan a los anunciantes detrás de estas estafas, Meta no cancela sus cuentas; al contrario, les cobra más como "desincentivo". En otras palabras, los anuncios fraudulentos son más rentables para Meta que los anuncios legítimos. Los propios memorandos internos de Meta reconocen que facilitan a los estafadores la tarea de dirigirse automáticamente a sus usuarios más vulnerables: si un usuario hace clic en una estafa, el sistema automatizado de segmentación publicitaria inunda su feed con aún más estafas. La empresa sabe que la economía global del fraude depende totalmente de Meta, ya que un tercio de todas las estafas en EE. UU. se realizan a través de Facebook (en el Reino Unido, la cifra asciende al 54 % de todas las pérdidas por estafas relacionadas con pagos). Meta también concluye que es excepcionalmente propicia para los estafadores, y un memorando interno de 2025 revela que la empresa afirmó que "es más fácil anunciar estafas en las plataformas de Meta que en Google".
Internamente, Meta ha elaborado planes para reducir el fraude en la plataforma, pero el esfuerzo se está llevando a cabo con lentitud porque la empresa estima que, como máximo, pagará multas en todo el mundo hasta mil millones de dólares, mientras que actualmente obtiene siete mil millones de dólares anuales en ingresos por fraude. El memorándum que anuncia la iniciativa antifraude concluye que los ingresos generados por estafas superan con creces "el costo de cualquier acuerdo regulatorio relacionado con anuncios fraudulentos". Otro memorándum concluye que la empresa no tomará medidas proactivas para combatir el fraude y que solo lo hará en respuesta a acciones regulatorias.
El equipo antifraude de Meta opera bajo un sistema interno de cuotas que limita la cantidad de anuncios fraudulentos que puede combatir. Un memorándum de febrero de 2025 indica que el equipo antifraude solo puede tomar medidas que reduzcan los ingresos publicitarios en un 0,15 % (135 millones de dólares), a pesar de que Meta estima que los anuncios fraudulentos generan 7 mil millones de dólares anuales para la empresa. El gerente a cargo del programa advierte a sus subordinados: "Tenemos límites de ingresos específicos".
¿Cómo se manifiesta el fraude en Meta? Un ejemplo citado por Reuters es el descubrimiento por parte de la empresa de una "red de cuentas de seis cifras" que suplantaban la identidad de personal militar estadounidense, quienes intentaban engañar a otros usuarios de Meta que les enviaban dinero. Reuters también describe una proliferación de cuentas falsas que se hacen pasar por celebridades o representantes de grandes marcas de consumo para robar el dinero de los usuarios de Meta.
Otra forma común de fraude son las estafas de sextorsión. En estas, alguien obtiene imágenes íntimas de la víctima y amenaza con publicarlas a menos que se le pague dinero o se realicen más actos sexuales frente a la cámara. Estas estafas afectan desproporcionadamente a adolescentes y han provocado suicidios en menores:
En 2022, un gerente de Meta envió un memorándum quejándose de la falta de inversión en sistemas de lucha contra el fraude. La empresa había clasificado este tipo de fraude como un problema de baja gravedad y estaba deliberadamente reduciendo los recursos destinados a su cumplimiento.
Esto empeoró aún más en los años siguientes, cuando Meta realizó despidos masivos en su departamento antifraude para liberar capital y perpetrar otro tipo de estafa: el fraude masivo a inversores en el metaverso y la IA.
https://pluralistic.net/2025/05/07/rah-rah-rasputin/#credulous-dolts
Estos despidos a veces conllevaron el cierre de departamentos enteros. Por ejemplo, en 2023, se despidió a todo el equipo que gestionaba las "preocupaciones de los anunciantes sobre cuestiones de derechos de marca". Mientras tanto, las divisiones de metaverso e IA de Meta recibieron prioridad sobre los recursos de la empresa, hasta el punto de que se ordenó a los equipos de seguridad que dejaran de utilizar la infraestructura de la compañía de forma intensiva y que, en su lugar, operaran con un mínimo de recursos, simplemente "manteniendo el servicio en funcionamiento".
Mientras tanto, esos equipos de seguridad recibían alrededor de 10 000 informes de fraude válidos de usuarios cada semana, pero, según sus propios cálculos, ignoraban o rechazaban incorrectamente el 96 %. La empresa respondió a esta revelación comprometiéndose a reducir el porcentaje de informes de fraude válidos que ignoraba a tan solo el 75 % para 2023.
Cuando Meta archiva y no corrige los informes de fraude válidos, los usuarios de Meta lo pierden todo. Reuters informa sobre el caso de una reclutadora de la Fuerza Aérea canadiense cuya cuenta fue usurpada por estafadores. A pesar de que la víctima informó repetidamente a Meta sobre la usurpación de la cuenta, la empresa no actuó ante ninguno de estos informes. Los estafadores que controlaban la cuenta comenzaron a suplantar la identidad de la víctima ante sus contactos de confianza, promoviendo estafas con criptomonedas y afirmando que había comprado un terreno para la casa de sus sueños con sus ganancias en criptomonedas.
Mientras Meta no hacía nada, los amigos de la víctima lo perdieron todo. Un colega, Mike Lavery, fue víctima de una estafa que le costó 40.000 dólares canadienses. Según declaró a Reuters: «Pensaba que estaba hablando con un amigo de confianza con muy buena reputación. Por eso, bajé la guardia». Otros cuatro colegas también fueron estafados.
La persona a la que le robaron la cuenta suplicó a sus amigos que denunciaran el fraude a Meta. Enviaron cientos de denuncias a la empresa, que las ignoró todas, incluso aquellas que la propia Meta consiguió que la Real Policía Montada del Canadá entregara al contacto antifraude canadiense de Meta.
Meta denomina a este tipo de estafa, en la que los estafadores se hacen pasar por usuarios, «orgánica», diferenciándola de los anuncios fraudulentos, en los que los estafadores pagan para llegar a posibles víctimas. Meta estima que aloja 22.000 millones de intentos de estafa «orgánica» al día. Estas estafas orgánicas a menudo están permitidas por los términos de servicio de Meta: cuando la policía de Singapur denunció a Meta 146 publicaciones fraudulentas, la empresa concluyó que solo el 23 % de estas estafas infringían sus términos de servicio. Las demás estaban permitidas.
Entre estos fraudes permitidos se incluían ofertas demasiado buenas para ser verdad con descuentos del 80 % en marcas de moda líderes, ofertas de entradas falsas para conciertos y anuncios de empleo falsos; todos permitidos según las propias políticas de Meta. Los memorandos internos a los que tuvo acceso Reuters muestran al personal antifraude de Meta bastante molesto al darse cuenta de que estas estafas no estaban prohibidas en la plataforma. Un empleado de Meta escribió: «¡Las políticas actuales no detectarían esta cuenta!».
Pero incluso si un estafador infringe los términos de servicio de Meta, la empresa no tomará medidas. Según las propias políticas de Meta, una "Cuenta de Alto Valor" (aquella que invierte mucho en anuncios fraudulentos) debe acumular más de 500 infracciones (violaciones de las políticas de Meta) antes de que la empresa la suspenda.
El equipo de seguridad de Meta, frustrado por la alianza tácita de la empresa con los estafadores que se aprovechaban de sus usuarios, creó un premio semanal al "Estafador Más Descarado", otorgado al anunciante que generaba más quejas esa semana. Sin embargo, esto no tuvo ningún efecto: Reuters descubrió que el 40% de los Estafadores Más Descarados seguían operando en la plataforma seis meses después de haber sido señalados como los estafadores más prolíficos de la empresa.
Esta insensible indiferencia hacia los usuarios de Meta no es resultado de una nueva tendencia sádica en la alta dirección de la empresa. Como demuestra exhaustivamente la autobiografía de la denunciante Sarah Wynn-Williams, Gente negligente, la empresa siempre ha estado dirigida por personas nefastas que no dudarían en someterte a torturas grotescas con tal de lucrarse:
https://pluralistic.net/2025/04/23/zuckerstreisand/#zdgaf
Lo que ha cambiado con el tiempo es si pueden lucrarse a costa de tu seguridad. Los propios cálculos internos de la empresa revelan cómo funciona esto: ganan más dinero con el fraude —7.000 millones de dólares al año— del que jamás tendrán que pagar en multas por exponerte al fraude. Una multa es un precio, y el precio es justo (para el fraude).
La empresa podría reducir el fraude, pero es costoso. Para reducir el fraude, deben invertir en empleados dedicados a combatirlo, quienes revisan las alertas de fraude automatizadas y las generadas por los usuarios, y aceptar las pérdidas derivadas de los falsos positivos: el bloqueo excesivo de anuncios que parecen fraudulentos, pero no lo son. Cabe destacar que estos dos resultados están inversamente correlacionados: cuanto más invierta la empresa en la revisión humana, menos fraudes detectará.
Destinar más recursos a la lucha contra el fraude no equivale a prometer eliminar todo el fraude de la plataforma. Esto es prácticamente imposible, y tratar de hacerlo implicaría intervenir de forma invasiva en las interacciones personales de los usuarios. Sin embargo, no es necesario que Meta intervenga en todas las conversaciones entre amigos, intentando determinar si alguno está estafando a los demás, para que la empresa investigue y actúe ante las quejas de los usuarios. Tampoco es necesario que Meta intervenga en tus conversaciones para eliminar a los estafadores más prolíficos y rentables sin esperar a que acumulen 500 infracciones de las políticas.
Y, por supuesto, hay una forma en que Meta podría reducir drásticamente el fraude: eliminar su sistema de publicidad dirigida que invade la privacidad. El proceso de captación de clientes de Meta comienza con los expedientes recopilados sin consentimiento de más de 4000 millones de personas en todo el mundo. Los estafadores pagan por acceder a estos expedientes y dirigen sus mensajes a los usuarios más vulnerables.
Este es un resultado totalmente previsible de la violación reiterada y flagrante de los derechos humanos de miles de millones de personas mediante el espionaje. Recopilar y vender el acceso a todos estos datos de vigilancia es como acumular una montaña de trapos sucios tan grande que se pueden ganar miles de millones procesándolos para convertirlos en combustible de baja calidad. Esto solo es rentable si se logra que otro pague las consecuencias inevitables:
https://locusmag.com/feature/cory-doctorow-zucks-empire-of-oily-rags/
Eso es lo que hace Meta: privatizar las ganancias que obtiene al espiarnos y socializar las pérdidas que todos sufrimos por las consecuencias inevitables. Sin embargo, solo pueden hacerlo gracias a la pasividad de los reguladores. Aquí en Estados Unidos, el Congreso no ha aprobado una nueva ley de privacidad del consumidor desde 1988, cuando tipificó como delito que los empleados de videoclubs revelaran los alquileres de VHS:
https://pluralistic.net/2023/12/06/privacy-first/#but-not-just-privacy
Meta nos espía y luego permite que depredadores usen esa vigilancia para destruir nuestras vidas por la misma razón que tu perro se lame los testículos: porque pueden. Se dedican a una conducta prácticamente garantizada por el entorno político enshitógeno, que permite a Meta espiarnos sin límites y que les impone una multa de mil millones de dólares por ganar siete mil millones a costa de nuestra miseria.
Mark Zuckerberg siempre ha sido una persona terrible, pero —como demuestra Sarah Wynn-Williams en su libro— antes era precavido, preocupado por el daño que sufriría si nos perjudicaba. Una vez que eliminamos esas consecuencias, Zuck hizo exactamente lo que su naturaleza le dictaba: destruir nuestras vidas para aumentar su propia fortuna.
Incidente 1267: Según informes, la IA de Omnilert activó una falsa alerta de armas en la escuela secundaria de Parkville, lo que provocó el traslado de estudiantes.
“Estudiantes reubicados tras informes de IA sobre posible arma en la escuela secundaria de Parkville”
PARKVILLE, MD — La policía informó que no encontró ninguna amenaza después de que un sistema de seguridad de inteligencia artificial detectara la posible presencia de un arma de fuego el viernes en una escuela del condado de Baltimore.
Los agentes indicaron que respondieron a una llamada en la escuela secundaria Parkville, ubicada en la cuadra 2600 de la avenida Putty Hill, alrededor de las 5 p. m.
Las autoridades informaron que los estudiantes fueron reubicados mientras la policía registraba la escuela.
El Departamento de Policía del Condado de Baltimore informó que las actividades escolares se reanudaron con normalidad una vez que se confirmó que no había peligro.
Por precaución, un supervisor de la policía del condado de Baltimore solicitó una inspección de la propiedad. Los estudiantes fueron trasladados de inmediato a una zona segura donde estuvieron bajo supervisión, según informó la directora de la escuela secundaria Parkville, Maureen Astarita, en un mensaje a las familias el viernes por la noche, de acuerdo con The Baltimore Sun.
La inspección de armas en Parkville se produjo después de que una alerta de Omnilert en octubre causara revuelo en la escuela secundaria Kenwood en Essex. Omnilert señaló una bolsa de papas fritas de un jugador de fútbol americano como un posible arma https://patch.com/maryland/perryhall/schools-promise-training-after-ai-flagged-chips-gun-baltimore-county, lo que llevó a los agentes a esposar a los estudiantes adolescentes hasta que se percataron de que no existía ninguna amenaza.
Este incidente motivó a las autoridades a solicitar una mayor supervisión humana antes de que la policía responda a los informes de Omnilert. Las Escuelas Públicas del Condado de Baltimore prometieron capacitación anual sobre los protocolos de Omnilert, que solo detecta amenazas potenciales y las envía a personas para su verificación.
Incidente 1269: Un vehículo autónomo de Waymo habría atropellado y matado a un gato en San Francisco.
“Waymo estaba en racha en San Francisco. Entonces, uno de sus coches autónomos atropelló y mató a un gato.”
En Delirium, un bar de mala muerte en el barrio Mission de San Francisco, la decoración es oscura, las bebidas fuertes y las emociones a flor de piel. Los punks y los lugareños de toda la vida que se encuentran aquí tienen pinta de duros, pero están de luto.
Kit Kat solía ir de bar en bar por la manzana, colándose en Delirium en busca de compañía y caricias. Todo el mundo conocía al gato de la bodega y lo llamaban cariñosamente el Alcalde de la Calle 16. Kit Kat era su "amigo", decían los chicos que se reunían en la esquina.
Pero poco antes de la medianoche del 27 de octubre, el gato atigrado fue atropellado justo afuera del bar y lo dejaron por muerto. ¿El culpable?
Un taxi robot.
Cientos de animales mueren atropellados por conductores humanos en San Francisco cada año. La muerte de un gato, aplastado por la rueda trasera de un taxi autónomo de Waymo, ha indignado a algunos residentes del barrio Mission que adoraban a Kit Kat, y ha provocado consternación entre quienes se oponen a la creciente automatización en tantos ámbitos de la sociedad.
«¿Waymo? ¡Ni hablar! Les tengo pavor», dijo Margarita Lara, una camarera que adoraba a Kit Kat. «Ahora hay muchísimos. Los han soltado por toda la ciudad, y es innecesario».
La muerte de Kit Kat ha generado indignación y debate durante las últimas tres semanas en San Francisco. Rápidamente surgió un altar en su honor. Los ánimos se caldearon en las redes sociales: algunos lamentaban la proliferación de taxis autónomos en la ciudad, mientras que otros se preguntaban por qué no había habido la misma preocupación por los peatones y mascotas atropellados por conductores humanos en San Francisco a lo largo de los años.
Un concejal pidió a las autoridades estatales que otorguen a los residentes el control local sobre los taxis autónomos. Y, tratándose de San Francisco, ahora existen monedas con la imagen de Kit Kat inspiradas en su desaparición.
Pero todo eso no importa en Delirium. Kit Kat era muy querido allí. Y ahora ya no está.
"Kit Kat tenía un carisma especial", dijo Lee Ellsworth, con una gorra de los San Francisco 49ers y una lata de cerveza Pabst Blue Ribbon.
Antes de que la muerte de Kit Kat acaparara los titulares, Waymo estaba en pleno auge. La empresa de coches autónomos, propiedad de Alphabet, la empresa matriz de Google, lanzó su servicio de taxis en San Francisco en 2024 y ahora cuenta con una flota de 1000 vehículos en el Área de la Bahía. Este mes anunció una expansión con servicio en la autopista a lo largo de la Península y recogidas en el aeropuerto de San José. Waymo también espera prestar servicio en el Aeropuerto Internacional de San Francisco próximamente.
Hace apenas un par de años, los Jaguars blancos con cámaras giratorias en el techo eran considerados una rareza. Los transeúntes se quedaban boquiabiertos al ver el volante girando sin nadie al volante. Los Waymos se han convertido en una de las principales atracciones turísticas. Muchas mujeres los consideran una opción más segura que depender de un Uber o Lyft conducido por un hombre. Tantos padres los han pedido para sus hijos que algunas escuelas parecen aparcamientos de Waymos.
Grow SF, un grupo político moderado con vínculos con la industria tecnológica, descubrió que el apoyo de los votantes de San Francisco a Waymo aumentó del 44 % en septiembre de 2023 al 67 % en julio de este año.
Aun así, la muerte de Kit Kat ha dado nuevo argumentos a los detractores. Argumentan que los taxis autónomos roban pasajeros al transporte público, eliminan empleos, enriquecen a los ejecutivos de Silicon Valley y, sencillamente, resultan inquietantes.
Jackie Fielder, una concejala progresista de San Francisco que representa al Distrito de la Misión, ha sido una de las críticas más vehementes. Tras la muerte de Kit Kat, presentó una resolución municipal que insta a la Legislatura estatal a permitir que los votantes decidan si los coches autónomos pueden circular en sus zonas. (Actualmente, el estado regula los vehículos autónomos en California).
"Un conductor humano puede ser responsabilizado, puede bajarse del coche, pedir disculpas y la policía puede localizarlo si se trata de un atropello con fuga", declaró la Sra. Fielder en una entrevista. "Aquí, no hay a quién responsabilizar".
La Sra. Fielder mantiene estrechos vínculos con sindicatos, como los Teamsters, que han luchado por una mayor regulación de los vehículos autónomos, principalmente por la preocupación de sus miembros, que podrían perder sus empleos como conductores en otros sectores.
La Sra. Fielder ha publicado vídeos en redes sociales donde se la ve caminando por las calles de Mission mientras habla de Kit Kat.
"Nunca olvidaremos a nuestra querida Kit Kat", dice en uno de ellos. "Pobrecito... sufrió una agonía horrible, horrible y larga."
(Algunos usuarios de redes sociales utilizan la palabra "agonía" para evitar los algoritmos que censuran videos con palabras como "muerte").
Han surgido memoriales en el mercado de Randa, donde el dueño, Mike Zeidan, acogió a Kit Kat hace seis años para que cazara ratones. El gato solía estar en el mostrador de la tienda cuando no rondaba por la calle 16. Un vecino le traía rodajas de salmón todos los días; otro le enviaba una foto de Kit Kat a su madre cada mañana.
En un árbol del exterior cuelgan fotos del gato y un dibujo suyo con un halo sobre la cabeza.
"Salva a un gato", se lee en el dibujo. "¡No uses Waymo!"
Ramos de flores, un ratón de peluche y un envoltorio de Kit Kat completan el memorial.
En el árbol de al lado hay una exhibición de otro tipo.
"Waymo mató al gato favorito de mi hijo pequeño", dice un cartel. "Los conductores humanos mataron a 42 personas el año pasado." (En realidad, según datos de la ciudad, los conductores humanos mataron a 43 personas en San Francisco el año pasado, incluyendo 24 peatones, 16 personas en automóviles y tres ciclistas. Ninguno murió atropellado por un vehículo de Waymo).
El letrero intentaba contextualizar la muerte del gato, en una ciudad diseñada para ser peatonal donde los peatones aún enfrentan peligros. En 2014, la ciudad se comprometió a erradicar las muertes por accidentes de tráfico en un plazo de 10 años, pero la cifra del año pasado fue una de las más altas registradas.
La ciudad no lleva un registro de cuántos animales mueren atropellados cada año, pero la cifra asciende a cientos, según Deb Campbell, portavoz del Departamento de Cuidado y Control de Animales de San Francisco.
Agregó que la semana pasada, la cámara frigorífica de la agencia contenía los cuerpos de 12 gatos que se cree fueron atropellados en las últimas semanas. Ninguno de ellos pareció generar cobertura mediática, altares ni memes.
Waymo no niega que uno de sus vehículos haya matado a Kit Kat. La empresa emitió un comunicado informando que, mientras uno de sus vehículos recogía pasajeros, un gato "se metió debajo del vehículo justo cuando arrancaba".
"Enviamos nuestras más sinceras condolencias al dueño del gato y a la comunidad que lo conocía y lo quería", expresó Waymo en un comunicado.
Waymo insiste en que sus vehículos son mucho más seguros que los conducidos por personas, registrando un 91% menos de accidentes graves en comparación con conductores humanos que recorren la misma distancia en las mismas ciudades. Los datos se encuentran en un documento de investigación de la empresa que fue revisado por pares y publicado en una revista especializada. Waymo también opera servicios completos de taxi en Los Ángeles y Phoenix, y ofrece viajes a través de una alianza con Uber en Atlanta y Austin, Texas.
El alcalde de San Francisco, Daniel Lurie, se ha declarado un gran admirador de la empresa. A principios de este año, dijo que permitiría a Waymo usar Market Street, la arteria principal de la ciudad, que durante cinco años había sido accesible principalmente para peatones y vehículos de transporte público. También defendió los taxis autónomos en una entrevista el jueves con la periodista tecnológica Kara Swisher, después de que ella mencionara a Kit Kat.
"Waymo es increíblemente seguro", dijo. "Es más seguro que cualquiera de nosotros al volante".
Rick Norris, quien trabaja en el Teatro Roxie en Mission, dijo que le gustaban los Waymo y había notado que se desenvolvían cada vez mejor en las complicadas calles de la ciudad. Pero le preocupó hablar con varias personas que presenciaron los últimos momentos de Kit Kat y relataron cómo intentaron detener el Waymo al ver al gato debajo.
El auto simplemente se alejó.
Fue en ese momento que Sheau-Wha Mou, camarera y presentadora de karaoke en el bar Delirium, se tomó un descanso para fumar. Vio a la gente presa del pánico mientras estaba en la acera. Corrió hacia él y encontró a Kit Kat sufriendo, con sangre brotando de su boca.
"Me arrodillé y le hablé", recordó. "¿Qué pasó? ¿Estás bien?"
Dijo que había usado el letrero del bar como camilla. Un desconocido los llevó a ella y a Kit Kat a una clínica veterinaria de urgencias cercana. El Sr. Zeidan, el dueño de la bodega, llegó poco después.
Una hora más tarde, el veterinario le informó al Sr. Zeidan que Kit Kat había fallecido.
Las fotos de Kit Kat aún se exhiben junto a la caja registradora en el Mercado de Randa, al lado de los dados y los encendedores que se venden. El Sr. Zeidan dijo que todavía extraña al perro cazador que se convirtió en el rey del barrio.
Darrell Smith pasó por el mercado el lunes, como parte de un ritual semanal que también incluye pedir un plato combinado en el restaurante de barbacoa hawaiana cercano. Dijo que extrañaba a Kit Kat, pero que pensar en el auto robot era una pérdida de tiempo.
"Yo mismo soy escéptico respecto a esos coches de Waymo", dijo. "Pero la IA es el futuro. No podemos detenerla, nos guste o no".
Incidente 1270: Se han reportado múltiples incidentes de presunto fraude con inteligencia artificial en las universidades SKY de Corea del Sur durante los exámenes parciales de octubre de 2025.
“El uso de inteligencia artificial para hacer trampa sacude a las mejores universidades de Corea del Sur.”
Muchos estudiantes universitarios en Corea del Sur disfrutan de un periodo de descanso, aliviados de haber finalizado los exámenes parciales. Sin embargo, las universidades de élite del país se encuentran en una situación de crisis tras descubrirse que la temporada de exámenes se vio empañada por una serie de casos de fraude masivo con inteligencia artificial.
Un incidente de gran repercusión, ocurrido en la Universidad Yonsei de Seúl, se hizo público el domingo. Los medios locales informaron que un profesor descubrió que decenas de estudiantes podrían haber hecho trampa utilizando libros de texto, programas informáticos o incluso ChatGPT durante un examen parcial en línea de un curso sobre ChatGPT. Cientos de estudiantes de pregrado realizaron la prueba y 40 de ellos admitieron haber hecho trampa, según informó la universidad.
En cuestión de días, surgieron casos similares de fraude masivo en otras dos universidades de primer nivel en Corea del Sur: la Universidad Nacional de Seúl y la Universidad de Corea, que también confirmaron que sus estudiantes habían utilizado inteligencia artificial para hacer trampa en exámenes recientes. En conjunto, estas universidades se conocen por el acrónimo SKY, que también alude a su prestigio en el altamente competitivo mundo de la educación coreana.
Si bien el uso cuestionable de la inteligencia artificial en las universidades se está generalizando, es raro que las universidades más prestigiosas de un país se vean envueltas simultáneamente en escándalos relacionados con la IA.
En Corea del Sur, la educación aún se considera un motor de movilidad social, y cuenta con una de las mayores proporciones de graduados universitarios entre los países desarrollados. Para la mayoría de los estudiantes, el objetivo es conseguir una plaza en las universidades SKY.
Para ello, necesitan obtener una puntuación excelente en un examen de acceso a la universidad de ocho horas que evalúa sus conocimientos de coreano, matemáticas, inglés y otras materias. El jueves, más de medio millón de estudiantes de último año de secundaria en Corea del Sur rindieron el examen, una tradición de décadas que altera el ritmo de toda la nación. Se suspenden los vuelos, se paralizan las obras de construcción y se imponen restricciones de tráfico; además, se insta al público a minimizar el ruido para que los estudiantes puedan concentrarse.
En los últimos años, la IA se ha consolidado en la educación superior. Más del 90 % de los estudiantes universitarios surcoreanos con alguna experiencia en IA generativa afirmaron haber utilizado estas herramientas en sus trabajos académicos, según una encuesta de 2024 realizada por el Instituto Coreano de Investigación para la Formación Profesional.
Algunos educadores afirman que las universidades no han logrado mantenerse al día.
«La IA es una herramienta para retener y organizar información, por lo que ya no podemos evaluar a los estudiantes universitarios en función de esas habilidades», afirmó Park Joo-Ho, profesor de educación en la Universidad de Hanyang. Dado que los estudiantes ya utilizan la IA, añadió, deberían ser evaluados en función de su creatividad, algo que la IA no puede replicar.
«El método educativo actual ya está obsoleto», concluyó.
A los estudiantes de Yonsei que cursaban la asignatura «Procesamiento del Lenguaje Natural y ChatGPT» se les prohibió usar IA para el examen parcial del 15 de octubre. El examen se realizó en línea y se les indicó a los participantes que mantuvieran encendidas las cámaras de sus portátiles para que los supervisores pudieran monitorearlos. Tras revisar las grabaciones, un profesor afirmó haber encontrado pruebas de que decenas de estudiantes habían hecho trampa. Recibirán una calificación de cero en el examen, según informó la universidad. En otra ocasión, se descubrió que estudiantes de Yonsei compartían las respuestas del examen en una aplicación móvil que utiliza IA, informó la universidad.
"Es inevitable que la IA influya en nuestra educación", afirmó Ju Yuntae, estudiante de educación física en la Universidad Yonsei. Explicó que utilizaba ChatGPT para buscar artículos de investigación y para obtener ayuda con la traducción entre inglés y coreano.
"Pero si los estudiantes rompen el pacto con sus profesores de no usarla", añadió, "entonces se trata de una cuestión de confianza y un problema mayor".
Ese pacto también parece haberse roto en la Universidad de Corea en Seúl. Varios estudiantes admitieron haber utilizado IA durante un examen en línea el mes pasado para una clase sobre el envejecimiento de la población, según informó una portavoz de la universidad, después de que un estudiante denunciara que algunos habían utilizado un chat grupal para compartir grabaciones de sus pantallas y respuestas durante el examen. Estos estudiantes recibirán una calificación de cero, indicó la portavoz.
En un comunicado emitido el miércoles, la Universidad Nacional de Seúl declaró haber descubierto que algunos estudiantes utilizaron IA para hacer trampa en un examen de estadística, pero no ofreció más detalles. El examen se repetirá, informó la universidad.
En los últimos años, estas universidades han establecido algunas directrices sobre inteligencia artificial (IA). La Universidad de Corea cuenta con una guía de 82 páginas que indica que "el uso o la presentación no autorizados de contenido generado por IA se consideran faltas académicas". Las normas de Yonsei declaran que está prohibido usar la IA para "generar la esencia y la creatividad de la investigación".
Lee T.H., estudiante de posgrado en ingeniería informática en la Universidad Nacional de Seúl, comentó que empezó a observar a estudiantes usando IA poco después del lanzamiento de ChatGPT por parte de OpenAI en 2022. Ahora él mismo la utiliza para agilizar su programación.
"A algunos profesores no les gusta que usemos IA", dijo. "Otros la fomentan porque ayuda a resolver problemas rápidamente".
Pero añadió: "En realidad, no hay forma de impedir que los estudiantes la usen".
Enviar URL Rapidamente
Acerca de la Base de Datos
La base de datos de incidentes de IA está dedicada a indexar el historial colectivo de daños o casi daños realizados en el mundo real por el despliegue de sistemas de inteligencia artificial. Al igual que bases de datos similares en aviación y seguridad informática, la base de datos de incidentes de IA tiene como objetivo aprender de la experiencia para que podamos prevenir o mitigar los malos resultados.
Estás invitado a enviar informes de incidentes, después de lo cual los envíos se indexarán y se harán visibles para el mundo. La inteligencia artificial solo será un beneficio para las personas y la sociedad si registramos colectivamente y aprendemos de sus fallas. (Más información)

Investigación de incidentes de IA para construir un futuro más seguro: el Instituto de Investigación de Seguridad Digital se asocia con Responsible AI Collaborative
By TheCollab Board of Directors
2024-02-20
El Instituto de Investigación de Seguridad Digital (DSRI) de los Institutos de Investigación de UL se está asociando con Responsible AI Coll...
La Base de Datos en la Prensa
Lea acerca de la base de datos en PAI Blog, Vice News, Venture Beat, Wired y arXiv entre otros puntos de venta.
Rankings de Reportadores de Incidentes
Estas son las personas y entidades acreditadas con la creación y presentación de informes de incidentes. Hay más detalles disponibles en la página de rankings.
El Informe de Incidentes de IA

Create an account to subscribe to new incident notifications and other updates.
Incidentes Aleatorios
El Colaborativo de IA Responsable
La base de datos de incidentes de IA es un proyecto de Responsible AI Collaborative, una organización autorizada para promover la base de datos de incidentes de IA. La gobernanza de la Colaborativa se estructura en torno a la participación en su programación de impacto. Para obtener más detalles, lo invitamos a leer el informe de fundación y obtener más información sobre nuestro and learn more on our.

Vea el Formulario 990 de la Colaborativa de IA Responsable y la solicitud de exención de impuestos.
Patrocinador fundador de la organización
Patrocinador fundador de la base de datos





