Bienvenido ala base de datos de incidentes de IA
Incidente 1286: Supuestamente se encontraron errores de citas asistidos por IA en el informe sobre la fuerza laboral de salud de Terranova y Labrador de 2025, elaborado por Deloitte.
“Deloitte supuestamente citó una investigación generada por IA en un informe de un millón de dólares para un gobierno provincial canadiense”Último informe
Un informe sobre atención médica encargado por Deloitte (https://fortune.com/company/deloitte/), que costó a una provincia casi 1,6 millones de dólares, contiene errores posiblemente generados por inteligencia artificial. Este es el segundo país este año que denuncia deficiencias en la verificación de datos de la consultora.
Los errores, detectados en una investigación publicada el sábado por Independent, un medio de comunicación canadiense progresista que cubre Terranova y Labrador, la provincia más oriental del país, aparecen en un informe de 526 páginas difundido por el gobierno en mayo. El informe asesoró al Departamento de Salud y Servicios Comunitarios del entonces gobierno liberal sobre temas como la atención virtual, los incentivos para la retención y el impacto de la pandemia de COVID-19 en el personal sanitario, en un momento en que el sector sanitario de la provincia se enfrenta a una escasez de personal médico y de enfermería.
El informe de Deloitte contenía citas falsas, se extrajo de artículos académicos inventados para extraer conclusiones para análisis de coste-efectividad, y citaba a investigadores reales en artículos en los que no habían colaborado, según descubrió el Independent. Incluía artículos ficticios escritos en coautoría por investigadores que afirmaron no haber colaborado nunca.
"Deloitte Canadá respalda firmemente las recomendaciones de nuestro informe", declaró un portavoz de Deloitte Canadá a Fortune en un comunicado. "Estamos revisando el informe para realizar algunas correcciones en las citas, que no afectan a las conclusiones del informe. No se utilizó inteligencia artificial para redactar el informe; se utilizó de forma selectiva para respaldar un pequeño número de citas de investigación". El extenso informe también citaba un artículo académico del Canadian Journal of Respiratory Therapy, que aún no se encuentra al buscar en su base de datos.
"Parece que si se están inventando cosas como esta, es posible que estén utilizando la IA de forma intensiva para generar trabajo", declaró Gail Tomblin Murphy, profesora adjunta de la Facultad de Enfermería de la Universidad de Dalhousie en Nueva Escocia, al Independent. Tomblin Murphy fue citada por Deloitte en un artículo académico que "no existe". Añadió que solo había trabajado con tres de los otros seis autores mencionados en la cita falsa.
"Y definitivamente creo que esto presenta muchos desafíos. Debemos ser muy cuidadosos para asegurarnos de que la evidencia que sustenta los informes sea la mejor evidencia, que sea evidencia validada. Y que, en definitiva, estos informes, no solo porque cuestan a los gobiernos y al público, sean precisos, se basen en la evidencia y sean útiles para avanzar". Hasta el lunes, el informe seguía disponible en el sitio web del gobierno canadiense.
El gobierno canadiense gastó poco menos de 1,6 millones de dólares en el informe, pagándolo en ocho cuotas, según una solicitud de acceso a la información publicada en una entrada de blog el miércoles pasado.
Tony Wakeham, líder del Partido Conservador Progresista en la provincia y nuevo primer ministro, asumió el cargo a finales de octubre. La Oficina del Primer Ministro de Terranova y Labrador y el Departamento de Salud y Servicios Comunitarios de la provincia no respondieron de inmediato a la solicitud de comentarios de Fortune sobre el informe de mayo y no han abordado públicamente el tema.
La revelación llega tras la noticia del mes pasado de que Deloitte utilizó IA en un informe de 290.000 dólares (https://fortune.com/2025/10/07/deloitte-ai-australia-government-report-hallucinations-technology-290000-refund/?utm_source=search&utm_medium=suggested_search&utm_campaign=search_link_clicks), publicado en julio para ayudar al gobierno australiano a tomar medidas enérgicas contra la asistencia social. Sin embargo, un investigador detectó alucinaciones en el estudio de 237 páginas, que incluía referencias a artículos académicos inexistentes y una cita inventada de una sentencia de un tribunal federal.
En el estudio revisado, que se subió discretamente al sitio web del gobierno australiano, la consultora admitió haber utilizado el sistema de lenguaje de IA generativa Azure OpenAI para elaborar el informe. "Las actualizaciones realizadas no impactan ni afectan en modo alguno el contenido sustancial, las conclusiones ni las recomendaciones del informe", escribió Deloitte en una sección del estudio actualizado.
La firma miembro de Deloitte en Australia tuvo que pagar al gobierno un reembolso parcial por el informe. Aún no se ha publicado información sobre un posible reembolso por el informe de Canadá.
Incidente 1289: El primer ministro de Malta, Robert Abela, habría sido víctima de una falsificación de datos por parte de un ciudadano ucraniano en un fraude con criptomonedas dirigido a residentes locales.
“Acusan a una mujer ucraniana de usar un video deepfake de un primer ministro en una estafa de criptomonedas”
Una ciudadana ucraniana de 24 años ha sido puesta en prisión preventiva tras ser acusada de estafar a varias personas en Malta mediante una estafa de criptomonedas promocionada con un vídeo generado por IA del primer ministro Robert Abela.
La mujer, identificada como Kateryna Izotkina, con permiso de residencia en el Reino Unido pero sin domicilio fijo en Malta, compareció ante el tribunal el miércoles. Se declaró inocente de los cargos de blanqueo de capitales, fraude, ganancias ilícitas y participación en el crimen organizado.
Durante la audiencia, el inspector Andy Rotin explicó que el caso comenzó cuando circuló en redes sociales un vídeo deepfake en el que aparecía Abela, promocionando falsamente las inversiones en criptomonedas. Varias personas fueron víctimas de la estafa.
Una denunciante afirmó haber sido estafada con 52.000 euros, transferidos mediante múltiples transacciones y en efectivo. Los investigadores descubrieron que el acusado continuó presionando a la víctima para obtener más sumas, incluso después de las pérdidas iniciales.
Para detener a la sospechosa, la policía organizó una entrega vigilada. La víctima acordó entregar 10.000 € en la plaza Żurrieq, utilizando billetes falsos de 50 € proporcionados por la policía. Agentes vestidos de civil arrestaron a Izotkina inmediatamente después de la entrega.
El tribunal dictó una orden de embargo preventivo de 63.000 € de los bienes de la acusada.
El abogado defensor, Nicholai Bugeja, solicitó la libertad bajo fianza, subrayando que Izotkina había cooperado con la policía y que los investigadores ya contaban con las pruebas pertinentes. Sin embargo, la fiscal Marica Ciantar se opuso a la solicitud, subrayando que la investigación se encontraba aún en sus primeras etapas, que la denunciante aún no había testificado y que la acusada representaba un riesgo de fuga debido a su falta de vínculos con Malta. Ciantar también expresó su preocupación por la posible manipulación de pruebas y sus vínculos con una red criminal.
La magistrada Elaine Rizzo falló en contra de la libertad bajo fianza y ordenó la detención de la mujer.
El caso está siendo procesado por la abogada fiscal Marica Ciantar, asistida por los inspectores Andy Rotin y Duncan Schembri. Los abogados Nicholai Bugeja y Alexander Boichuk comparecieron para la defensa.
Incidente 1287: Supuesta suplantación de identidad de Facebook basada en deepfakes apunta a la hija de un escocés en coma.
“La hija de un escocés en coma en Turquía se enferma al ser víctima de estafadores que le piden dinero en efectivo.”
La hija de un escocés en coma en Turquía ha sido víctima de una estafa de deepfake (https://www.dailyrecord.co.uk/news/scottish-news/black-friday-warning-after-online-36296529) que le pide dinero. Teigan McMahon, de Glasgow (https://www.dailyrecord.co.uk/all-about/glasgow), pidió ayuda desesperadamente la semana pasada cuando su padre, Peter, sufrió un infarto durante sus vacaciones.
Su familia se enfrenta a facturas médicas cada vez mayores mientras la mujer de 52 años es "mantenida con vida por máquinas".
Ahora, Teigan ha tenido que suspender donaciones vitales después de que un vil estafador creara una cuenta falsa de Facebook (https://www.dailyrecord.co.uk/all-about/social-media) a su nombre. El perfil falso, que sigue activo a pesar de los intentos de eliminarlo, ha copiado fotos de Teigan y su padre para usarlas como foto de perfil y publicarlas.
También hay un enlace a la recaudación de fondos de Teigan (https://www.dailyrecord.co.uk/all-about/charity) y una captura de pantalla de las donaciones con una publicación que finge ser la joven de 20 años y dice: "Gracias a todos por su apoyo. Me alegra que sigan llegando donaciones".
La cuenta falsa de Facebook indica estar ubicada en Dallas, Texas.
Se recaudó un total de 9505 libras para Peter antes de que se suspendieran las donaciones el miércoles 26 de noviembre, aunque la familia tenía un objetivo de recaudación de 12 000 libras.
Teigan, alarmada, declaró al Record: "Puse en pausa mi página de GoFundMe en cuanto me enteré. Me dijeron que el perfil había sido eliminado, pero todavía puedo verlo".
Peter sufrió un paro cardíaco la madrugada del miércoles 19 de noviembre. Su corazón dejó de latir durante 70 minutos. Este padre de cinco hijos había volado al resort de Antalya el 14 de noviembre para pasar una semana de vacaciones de invierno.
Teigan voló directamente para estar junto a la cama de su padre en el hospital. Su hija, devastada, nos contó: "El miércoles me llamaron para decirme que mi padre estaba en la UCI después de sufrir un infarto.
"Tuvo un mini infarto hace unos meses.
"Esto fue totalmente diferente. Tuvieron que hacerle RCP durante más de una hora. Su corazón dejó de latir durante 70 minutos.
"Le causó daño en los riñones y ahora está en diálisis.
"Sigue en coma, pero puede respirar por sí solo. Rezamos para que despierte. Esperamos un milagro."
Peter, dueño de un taller de chapa y pintura, había volado sin seguro, y los gastos hospitalarios ya habían ascendido a 7.000 libras en tres días.
Añadió: "No puedo enfatizar lo suficiente lo importante que es cada céntimo. Esta factura aumenta día a día y supera con creces lo que mi familia y yo podemos afrontar solos.
No soy de las que le piden un céntimo a nadie, pero literalmente rogaré para salvar la vida de mi padre.
Haré lo que sea para darle a mi padre la mejor oportunidad posible".
El Daily Record ha destacado múltiples casos en los que estafadores crean páginas falsas de recaudación de fondos que explotan tragedias reales para estafar a las comunidades en duelo.
Estos incluyen el hackeo de una cuenta de Facebook para crear una recaudación de fondos falsa tras la muerte de la campeona de equitación Natasha Galpin, y el caso de Nicole Elkabbas, quien fue encarcelada durante casi tres años tras estafar al público por más de 45.000 libras fingiendo un cáncer de ovario.
Un portavoz de GoFundMe declaró: «Entendemos que la página de recaudación de fondos creada por Tiegan fue compartida por una cuenta falsa en redes sociales, pero estamos convencidos de que es auténtica».
GoFundMe nos ha informado previamente de que cuenta con un equipo de Confianza y Seguridad para detectar fraudes y que, por lo general, reembolsa las donaciones en caso de que se compruebe un uso indebido de los fondos o se incumplan las condiciones del servicio. La Policía de Escocia también ha advertido que «estafas de esta naturaleza pueden ser difíciles de detectar y cualquiera puede ser engañado».
Incidente 1285: Un deepfake de Jason Momoa, supuestamente generado por IA, fue utilizado en una estafa romántica que supuestamente defraudó a una viuda británica por 600.000 dólares.
“Una viuda británica pierde más de 600.000 dólares por una estafa generada mediante inteligencia artificial.”
Una mujer británica perdió más de 600.000 dólares en una estafa generada mediante inteligencia artificial, después de que los estafadores le hicieran creer que mantenía una relación romántica con el actor Jason Momoa. Según informes, los estafadores le enviaron varios videos, creados con inteligencia artificial, del actor afirmando diversas cosas.
Según los informes, los estafadores usaron esas imágenes para mentirle a la viuda británica, diciéndole que podría vivir feliz con el galán de Hollywood, alegando que el dinero que les enviaba se usaría para construir la casa de sus sueños en Hawái.
La viuda británica inició la relación después de que la estrella de Hollywood supuestamente respondiera a sus comentarios en una de sus páginas de fans. Él comenzó a hablar con ella con frecuencia tras el primer contacto, ya que la relación avanzaba rápidamente.
Viuda británica pierde dinero por culpa de estafadores
Según la policía, los estafadores, haciéndose pasar por Momoa, comenzaron a solicitar dinero a la abuela. Él afirmaba que su fortuna estaba vinculada a varios proyectos cinematográficos en los que estaba trabajando. La viuda británica finalmente puso a la venta su casa en Cambridgeshire, transfiriendo más de medio millón de la venta a su supuesto novio. Tras enviar el dinero, los mensajes cesaron y su compañero desapareció.
"Puede parecer descabellado, pero es una historia real, y dejó a una mujer vulnerable sin hogar", declaró la Policía de Cambridgeshire.
La policía afirmó que los estafadores han realizado esta misma estafa a otras víctimas en el Reino Unido y Estados Unidos. Afirmaron que otra mujer británica fue estafada por hasta 80.000 libras esterlinas, y que el estafador empleó la misma técnica de estafa romántica con la estrella de Hollywood para estafar a la desprevenida víctima.
La mujer británica afirmó haber tenido una conversación con su hija, quien, según ella, cumplía 15 años este año. "También me dijeron que estaba peleando con su exesposa por la casa, y que necesitábamos un certificado de matrimonio para conservarla. Así que fui crédula y pagué por ello", añadió.
Dave York, agente de prevención de fraudes, señaló que los estafadores siempre se dirigen a quienes consideran que están en su peor momento, especialmente a las viudas. De alguna manera, se dan cuenta de su desesperación por llenar los vacíos en sus vidas, creando la oportunidad perfecta para los delincuentes.
Famosos denuncian el aumento de deepfakes generados por IA
Además de Jason Momoa, otras figuras populares en Estados Unidos han visto sus fotos y vídeos siendo difundidos por delincuentes. Un ejemplo típico es Steve Harvey, el popular presentador de Family Feud. El año pasado, fue una de las celebridades cuyas voces fueron imitadas por delincuentes para promocionar una estafa que prometía fondos gubernamentales.
"Llevo meses diciéndoles que reclamen estos 6400 dólares gratis", dice una voz que suena como la de Harvey en un video. Sin embargo, Harvey ha instado a los reguladores a investigar este asunto y asegurarse de que los responsables rindan cuentas. "Mi preocupación ahora es la gente a la que afecta. No quiero que mis fans ni quienes no lo son se vean perjudicados", dijo Harvey.
Desde principios de este año, ha habido un gran aumento en el uso de inteligencia artificial por parte de estafadores para llevar a cabo sus fechorías. Según un informe previo de Cryptopolitan (https://www.cryptopolitan.com/sec-warns-of-ai-celebrity-scam-in-nigeria/), la Comisión de Bolsa y Valores de Nigeria emitió un comunicado advirtiendo al público sobre el uso de IA para crear deepfakes de personalidades populares con el fin de llevar a cabo actos ilícitos. Los estafadores crean vídeos deepfakes para solicitar fondos, mientras que otros los utilizan para anunciar oportunidades de inversión falsas.
Incidente 1288: Supuestos vídeos deepfake y noticias falsas utilizadas para suplantar al ministro principal de Guernsey en una estafa de inversión
“Estafa de inteligencia artificial ataca a isleños con publicaciones falsas de ministros”
La policía afirma que el contenido generado por IA del principal político de Guernsey ha sido utilizado por estafadores para intentar persuadir a los isleños a invertir.
La estafa, conocida como deepfake, muestra vídeos e imágenes falsos de la ministra principal de Guernsey, la diputada Lindsay de Sausmarez, que parece recomendar un plan de inversión, así como artículos falsos de periódicos locales.
De Sausmarez dijo que esperaba que "la mayoría de la gente se diera cuenta rápidamente de que es falso", pero aconsejó a los isleños que advirtieran a las personas vulnerables que las publicaciones eran fraudulentas.
Un portavoz de la Policía de Guernsey declaró: "Tengan en cuenta que esta historia, junto con cualquier otra que pueda surgir en la que aparezcan diputados solicitando pagos o inversiones, no es real y es una estafa".
La policía añadió que se debe tener cuidado con los artículos que promueven inversiones o premios que parecen demasiado buenos para ser verdad.
Las estafas deepfake se han vuelto más comunes en los últimos años gracias a la mejora de la tecnología de inteligencia artificial. Se han utilizado imágenes falsas de figuras de renombre como el periodista financiero Martin Lewis (https://www.bbc.co.uk/news/uk-66130785) y del alcalde de Londres, Sadiq Khan, para engañar a la gente en línea (https://www.bbc.co.uk/news/uk-68146053).
La policía de Guernsey advirtió a la gente que se lo piense dos veces antes de hacer clic en enlaces, introducir datos personales o proporcionar datos bancarios.
Cualquier persona que sospeche haber sido víctima de un fraude en línea debe ponerse en contacto con su banco de inmediato, añadió un portavoz policial.
Enviar URL Rapidamente
Acerca de la Base de Datos
La base de datos de incidentes de IA está dedicada a indexar el historial colectivo de daños o casi daños realizados en el mundo real por el despliegue de sistemas de inteligencia artificial. Al igual que bases de datos similares en aviación y seguridad informática, la base de datos de incidentes de IA tiene como objetivo aprender de la experiencia para que podamos prevenir o mitigar los malos resultados.
Estás invitado a enviar informes de incidentes, después de lo cual los envíos se indexarán y se harán visibles para el mundo. La inteligencia artificial solo será un beneficio para las personas y la sociedad si registramos colectivamente y aprendemos de sus fallas. (Más información)

Investigación de incidentes de IA para construir un futuro más seguro: el Instituto de Investigación de Seguridad Digital se asocia con Responsible AI Collaborative
By TheCollab Board of Directors
2024-02-20
El Instituto de Investigación de Seguridad Digital (DSRI) de los Institutos de Investigación de UL se está asociando con Responsible AI Coll...
La Base de Datos en la Prensa
Lea acerca de la base de datos en PAI Blog, Vice News, Venture Beat, Wired y arXiv entre otros puntos de venta.
Rankings de Reportadores de Incidentes
Estas son las personas y entidades acreditadas con la creación y presentación de informes de incidentes. Hay más detalles disponibles en la página de rankings.
El Informe de Incidentes de IA

Create an account to subscribe to new incident notifications and other updates.
Incidentes Aleatorios
El Colaborativo de IA Responsable
La base de datos de incidentes de IA es un proyecto de Responsible AI Collaborative, una organización autorizada para promover la base de datos de incidentes de IA. La gobernanza de la Colaborativa se estructura en torno a la participación en su programación de impacto. Para obtener más detalles, lo invitamos a leer el informe de fundación y obtener más información sobre nuestro and learn more on our.

Vea el Formulario 990 de la Colaborativa de IA Responsable y la solicitud de exención de impuestos.
Patrocinador fundador de la organización
Patrocinador fundador de la base de datos





