Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Bienvenido a
la base de datos de incidentes de IA

Loading...
Redes de perfiles falsos difundieron publicaciones de ITN en redes sociales en el período previo a las elecciones.

Incidente 1466: Una red de supuestos perfiles falsos de Facebook con imágenes supuestamente generadas por IA amplifica las publicaciones del partido búlgaro 'Existe un pueblo así' (ITN).

Traducido por IA
“Redes de perfiles falsos difundieron publicaciones de ITN en redes sociales en el período previo a las elecciones.”Último informe
factcheck.bg2026-04-24

La toma de posesión del gabinete interino encabezado por el primer ministro Andrey Gyurov ha intensificado la actividad de representantes del partido "Hay Gente Tal" (ITN) contra sus miembros. Mientras que el vicepresidente del partido, Toshko Yordanov, y el vicepresidente del grupo parlamentario, Stanislav Balabanov, atacan a los nuevos ministros principalmente desde la tribuna parlamentaria y ante los medios, la diputada Pavela Mitova, así como el líder del partido, Stanislav Trifonov, utilizan principalmente Facebook para difundir sus mensajes.

Ambas publicaciones han obtenido cientos de comparticiones y miles de reacciones, pero solo una pequeña parte de ellas son auténticas.

Un análisis de Factcheck.bg reveló que una red de aproximadamente 120 perfiles falsos de Facebook coordina la difusión de las publicaciones de Mitova y Trifonov. Los perfiles se crearon siguiendo un modelo similar y su actividad coincide en lo que respecta a la difusión de contenido de ITN.

El 20 de febrero, por ejemplo, Mitova publicó en su perfil una entrada afirmando que el ministro interino de Agricultura y Alimentación, Ivan Hristanov, había habilitado una sala especial para casos de "corrupción" y que allí había dado acceso a sus partidarios del partido "Edinenie" a "todos los documentos del Ministerio de Agricultura y Alimentación de los últimos cinco años", acceso al que no deberían tener por ley. Hristanov es uno de los ministros interinos que ha sido objeto de los ataques más feroces por parte de "There is such people" (Hay gente así).

Para el 10 de marzo, la publicación de Pavela Mitova se había compartido 336 veces, y la verificación de Factcheck.bg mostró que alrededor de 120 de estas comparticiones provenían de perfiles falsos. Estos perfiles se crearon siguiendo un modelo similar y cada uno de ellos había compartido las declaraciones en cuestión dos o más veces.

1 de 3

[![](https://factcheck.bg/wp-content/uploads/2026/04/Screenshot-2026-04-03-at-14.16.04.jpg [

De manera similar, una publicación de Trifonov del 4 de marzo, en la que exigía la renuncia de Hristanov y criticaba su ausencia en el parlamento para ser escuchado, fue compartida 379 veces, y casi la mitad de estas comparticiones provinieron de cuentas falsas.

Otra publicación de Trifonov del 11 de marzo, en la que criticaba «Continuamos el cambio: Bulgaria democrática», fue compartida más de 15 veces por la misma cuenta.

1 de 2

Hecho con Flourish - Crear un gráfico

  • Sus fotos de perfil, así como otras fotos que publican, se generan con inteligencia artificial. Esto se confirma mediante una verificación con la herramienta AIorNOT.

  • Tienen muy pocos o ningún amigo en Facebook.

  • Se indican varias ciudades de Bulgaria como lugares de residencia, y se ha añadido a la descripción del perfil información relacionada con la profesión. La mayoría de los perfiles se crearon a finales de 2025 o principios de 2026.

Los perfiles están asociados a direcciones de correo electrónico con el formato "digit@hotmail.com".

Su actividad principal consiste en republicar contenido de otros perfiles o páginas relacionadas con "There is such a people" y sus miembros. Las primeras publicaciones suelen tratar sobre la ciudad donde el perfil falso afirma vivir. Cada publicación posterior se relaciona exclusivamente con ITN.

Una característica de este grupo de perfiles falsos es que solo comparten publicaciones, pero no tienen ninguna otra actividad, como contenido propio, "me gusta" o comentarios.

Con la prohibición de la publicidad política en las redes sociales, la principal forma de llegar a los usuarios es la distribución orgánica, que depende principalmente de las reacciones que recibe una publicación. Un mayor número de reacciones, comentarios y comparticiones se traduce en una mayor difusión y ayuda al algoritmo de Facebook a reconocer las publicaciones como contenido de alta interacción.

Este es precisamente el caso de la publicación de Pavela Mitova del 20 de febrero. Fue compartida dos veces por el perfil falso Magdalena Kostova el 22 de febrero:

1 de 2

Este perfil se creó en diciembre. 26 de enero de 2025. Aunque falsa, la cuenta acepta solicitudes de amistad, lo que indica que su actividad no es completamente automatizada y que hay una persona real detrás que la gestiona.

Las primeras publicaciones de Magdalena Kostova están relacionadas con Sandanski, el Año Nuevo y la adopción del euro, además de varias fotos generadas por inteligencia artificial que supuestamente son suyas. Se trata de intentos de crear la impresión de un comportamiento online auténtico de un usuario real. Del 7 de enero al 30 de marzo, el perfil falso compartió el siguiente contenido:

  • 14 publicaciones de Pavela Mitova;

  • 50 en «Hay gente así»;

  • 12 publicaciones del perfil de Slavi Trifonov;

  • 1 publicación de un perfil con el nombre de Diana Damianova, que critica la oficina de Gyurov y llama a ITN «el guardián de los valores familiares»;

  • 1 publicación del perfil del diputado de ITN Alexander Rashev.

Otro perfil, el de Nikola Savov de Pernik, fue creado el 10 de enero de 2026. Tras su primera publicación, también comenzó a compartir contenido relacionado exclusivamente con ITN.

La foto de perfil tampoco corresponde a una persona real, sino que fue generada con inteligencia artificial. Otra similitud con el perfil de Magdalena Kostova es que Nikola Savov también compartió dos veces la publicación de Pavela Mitova del 20 de febrero. Otras publicaciones de ITN se compartieron dos veces en la red social.

1 de 8

![](https://factcheck.bg/wp-content/uploads/2026/04/Screenshot-2026-04-03-at-14.20.52.j pg)

[! ](https://factcheck.bg/wp-content/uploads/2026/04/Screenshot-2026-04-03-at-14.22.16.jpg)

Entre los perfiles falsos que se dedican a distribuir ITN En las publicaciones, también hay algunas con descripciones en ruso. Esto probablemente indica que el texto de dichas descripciones fue generado con inteligencia artificial.

Entre las publicaciones, también hay algunas con descripciones en ruso. Esto probablemente indica que el texto de dichas descripciones fue generado con inteligencia artificial. 1 de 2

Así, a través de un En una red de perfiles falsos con fotos falsificadas y sin publicaciones personales reales, la publicación de Pavela Mitova del 20 de febrero recibió al menos 120 comparticiones adicionales. El elevado número de reacciones y comparticiones la situó en la categoría de contenido de alta interacción en Facebook, lo que le otorgó una posición destacada y aumentó su visibilidad.

Esta misma red de perfiles también amplificó la difusión de publicaciones de otras cuentas y páginas asociadas a ITN durante la campaña para las elecciones parlamentarias anticipadas. La publicación de Stanislav Trifonov, por ejemplo, en la que criticaba al ministro de Agricultura en funciones, Ivan Hristanov, obtuvo más de 3000 "me gusta". Se compartieron 379 veces, de las cuales más de 100 provenían de cuentas falsas. La mayoría de los perfiles falsos de la red la compartieron dos veces. El perfil de Magdalena Kostova también se encontraba entre ellos.

1 de 2

«Habrá un pueblo así»

A principios de marzo, una nueva red de perfiles parcial o totalmente anónimos que utilizan la frase «Habrá un pueblo así» en su nombre —el eslogan de ITN en la actual campaña electoral— tiene como objetivo amplificar la distribución del contenido publicado por ITN para que los algoritmos de Meta lo reconozcan como altamente atractivo.

1 de 2

Estos 50 Algunos perfiles se presentan como activistas de ITN, pero en realidad no son auténticos. Las fotos de perfil que usan son generadas artificialmente o robadas de internet. Casi no hay actividad en los perfiles hasta febrero de 2026, cuando de repente comienzan a compartir contenido de diversas páginas y grupos de «Hay gente así» a diario.

Creado con Flourish - Crear un gráfico

Una comprobación con la herramienta PimEyes reveló que uno de los perfiles de la red —«There Will Be Such a People (Anelia Yordanova)»— utiliza una foto de la modelo de Victoria's Secret, Kelly Gale, como imagen de perfil.

1 de 3

Verificando Factcheck.bg con La herramienta PimEyes

La foto en cuestión aparece en varios sitios web, incluyendo algunos con contenido para adultos.

Otro perfil en la red utiliza una foto real. persona.

Una vez más, al verificar con la herramienta de reconocimiento facial PimEyes, se confirma que la foto pertenece a una persona real llamada Ivan Tomanović, investigador asociado del Departamento de Ingeniería Térmica y Energía del Instituto de Ciencias Nucleares "VINČA" de la Universidad de Belgrado. El equipo de Factcheck.bg intentó contactarlo, pero al momento de editar este texto, no se había recibido respuesta.

Y más fotos falsas Comportamiento

Desde el inicio de la campaña electoral, se ha observado otro tipo de actividad inusual en las publicaciones del líder de «Hay un Pueblo Tal», Slavi Trifonov. Su publicación del 12 de marzo, en la que critica al alcalde de Sofía, Vasil Terziev, ha recibido casi 5700 reacciones. De estas, unas 2000 son «me gusta», más de 600 son emoticonos de risa y cerca de 3000 son «corazón».

Una gran parte de los perfiles que reaccionan con un «corazón» en la publicación tienen nombres extranjeros, por ejemplo, italianos. La misma actividad inusual, con más de 900 reacciones («corazón»), se observa en las publicaciones de Trifonov del 28 de febrero, 1 de marzo, 4 de marzo, 5 de marzo, 6 de marzo y 11 de marzo.

1 de 3

Así son las reacciones compradas en redes sociales: un servicio ofrecido ilegalmente en internet por diversos intermediarios, a menudo con sede en países asiáticos. Por una pequeña tarifa, proporcionan reacciones en una publicación determinada, utilizando principalmente perfiles falsos creados específicamente para este fin.

Según las políticas de Meta, La empresa propietaria de Facebook considera que estas acciones se enmarcan dentro de lo que se denomina «comportamiento inauténtico coordinado» (https://transparency.meta.com/policies/community-standards/inauthentic-behavior/). Este comportamiento está sujeto a sanciones por parte de la plataforma, ya que su objetivo es engañar a Meta y a sus usuarios o eludir las sanciones impuestas por infringir las normas de la comunidad.

Estos compromisos de Facebook y otras redes sociales importantes se derivan del Acuerdo sobre Servicios Digitales de la UE. Act](https://www.eu-digital-services-act.com/Digital_Services_Act_Preamble_81_to_90.html#:~:text=their%20risk%20assessments.-,Providers%20of%20very%20large%20online%20platforms%20and%20very%20large,that%20contributes%20to%20disinformation%20campaigns.). El documento obliga explícitamente a las principales plataformas a tomar medidas contra el uso de sus servicios para la manipulación coordinada de la sociedad a través de perfiles falsos o bots, que pueden utilizarse para la rápida y masiva difusión de desinformación o contenido ilegal.

Leer Más
Loading...
La interrupción del servicio de robotaxis en China deja a los pasajeros varados en las carreteras.

Incidente 1460: El robotaxi Baidu Apollo Go quedó detenido en medio del tráfico durante un fallo del sistema en Wuhan, dejando a algunos pasajeros varados.

Traducido por IA
“La interrupción del servicio de robotaxis en China deja a los pasajeros varados en las carreteras.”
wired.com2026-04-19

Un problema técnico desconocido provocó que varios robotaxis propiedad del gigante tecnológico chino Baidu se detuvieran el martes en medio del tráfico, dejando a algunos pasajeros atrapados en los vehículos durante más de una hora.

En Wuhan, ciudad del centro de China donde Baidu ha desplegado cientos de sus taxis autónomos Apollo Go, usuarios de las redes sociales chinas informaron haber presenciado fallos de funcionamiento repentinos en los vehículos. Fotos y videos compartidos en línea muestran los autos de Baidu detenidos en autopistas concurridas, a menudo en el carril rápido.

Una estudiante universitaria en Wuhan le contó a WIRED que el martes estuvo atrapada en un robotaxi de Baidu con dos amigas durante aproximadamente 90 minutos. (Para proteger su privacidad, pidió ser identificada solo con su apellido, He). La estudiante dijo que el auto tuvo una falla y se detuvo cuatro o cinco veces durante el trayecto antes de finalmente estacionarse frente a una intersección en el este de Wuhan. Por suerte, no era una carretera con mucho tráfico y el grupo no corrió peligro inmediato. La pantalla del coche pedía a los pasajeros que permanecieran dentro con los cinturones de seguridad puestos y esperaran a que un representante de la compañía llegara "en cinco minutos", según una foto que compartió con WIRED.

Afirma que tardó unos 30 minutos en comunicarse con un representante de atención al cliente de Baidu por teléfono. "No dejaban de decir que lo reportarían a su superior. Pero no explicaron la causa [de la interrupción] ni nos dijeron cuánto tiempo debíamos esperar a que llegara el personal", comenta. Pero nadie llegó, y tras otra hora de espera, los tres pasajeros decidieron bajarse y volver a casa por su cuenta (las puertas no estaban cerradas con llave).

En las redes sociales chinas, otros pasajeros también se quejaron de no poder contactar con el servicio de atención al cliente de Baidu. "Intenté por todos los medios llamar para pedir ayuda usando las opciones que mostraba la aplicación, pero la línea no funcionaba, y cuando pulsé el botón SOS me indicó que no estaba disponible. Entonces, ¿para qué sirve exactamente el SOS?". Una persona escribió en una publicación en RedNote junto con un video que mostraba el botón sin funcionar. Dijo que tuvo que forzar la puerta para abrirla y salir del auto cuando el tráfico se detuvo por completo detrás de su robotaxi. "Apollo Go, de verdad me deben una disculpa", escribió.

Baidu no respondió de inmediato a la solicitud de comentarios. La policía local de Wuhan emitió un comunicado alrededor de la medianoche (hora de China) en el que afirmaba que la situación "probablemente fue causada por una falla del sistema", pero el incidente aún está bajo investigación. Nadie resultó herido y todos los pasajeros salieron de los vehículos, agregó la policía. Se desconoce cuántos robotaxis de Baidu podrían haberse visto afectados.

Una grabación de una cámara de tablero publicada en RedNote muestra un auto pasando junto a 16 vehículos Apollo Go estacionados en la carretera en un lapso de 90 minutos. En varias ocasiones, el video muestra al conductor evitando por poco chocar con el robotaxi frenando o cambiando de carril en el último momento.

Al parecer, otros no tuvieron tanta suerte. En otra publicación de RedNote, un hombre afirmó haber chocado contra uno de los vehículos de Baidu que presentaban fallas. El hombre escribió en la descripción que conducía a más de 64 km/h en una autopista cuando el auto que iba delante de él cambió de carril repentinamente para evitar el robotaxi detenido. No pudo reaccionar a tiempo y terminó chocando contra el auto autónomo. Las fotos del SUV naranja del hombre siendo remolcado muestran que el guardabarros delantero derecho quedó completamente arrancado y otras partes parecían haber sufrido daños importantes.

Según fotos y videos publicados en redes sociales chinas, hubo al menos otras dos colisiones el mismo día. Una usuaria de RedNote en Wuhan confirmó a WIRED que pasó junto a una furgoneta blanca que había sufrido una colisión por alcance con un robotaxi estacionado. La parte trasera del vehículo de Baidu quedó gravemente dañada, pero las dos personas que se encontraban junto al lugar parecían ilesas, según declaró. Añadió que calcula haber visto al menos una docena más de robotaxis estacionados.

Baidu es una de las empresas líderes en vehículos autónomos en China. La compañía ha lanzado servicios de robotaxi en más de una docena de ciudades chinas y recientemente comenzó su expansión internacional a lugares como Seúl, Abu Dabi y Dubái. En febrero, Baidu anunció que había completado 20 millones de viajes, cubriendo más de 300 millones de kilómetros (aproximadamente 186 millones de millas).

Wuhan ha sido una de las ciudades más proactivas en permitir la circulación de los vehículos totalmente autónomos de Baidu en vías públicas. Les permite operar en autopistas y realizar viajes al aeropuerto.

Leer Más
Loading...
Optometrista contraataca tras estafa con deepfake

Incidente 1455: Supuestos videos deepfake suplantaron la identidad del optometrista Joseph Allen para promocionar gotas para los ojos que revierten la miopía en TikTok.

Traducido por IA
“Optometrista contraataca tras estafa con deepfake”
visionmonday.com2026-04-18

Joseph Allen, OD, es muy conocido en el circuito de conferencias, en las redes sociales y por su canal de YouTube, Dr. Eye Health, donde educa a sus seguidores sobre diversos temas de salud ocular. Sin embargo, su notoriedad tuvo un lado negativo cuando descubrió videos en redes sociales que se parecían a él, tanto en apariencia como en voz, pero que difundían información falsa y vendían productos fraudulentos. El Dr. Allen fue víctima de una estafa con deepfakes de IA (https://www.aoa.org/news/clinical-eye-care/public-health/living-an-episode-of-black-mirror-ai-deepfakes-target-optometrist).

Los deepfakes y videos de baja calidad generados por IA están cada vez más dirigidos a médicos reales, suplantándolos para crear contenido fácil y automatizado que puede difundir información errónea y peligrosa sobre la salud. Los deepfakes son contenido manipulado o fabricado mediante IA que suplanta la identidad de una persona real con el fin de difundir información maliciosa o falsa.

Los vídeos de spam con IA son contenido de vídeo producido a gran escala mediante IA que explota los algoritmos de interacción de las redes sociales e inunda plataformas como YouTube, TikTok o Instagram, desplazando a los creadores de contenido original. El Dr. Allen señaló: «En algunos de estos vídeos, te dicen que no vayas a tu oftalmólogo y que toda nuestra profesión es una estafa».

Con asesoría legal, el Dr. Allen impugnó los deepfakes dirigidos a su canal, pero tardó un mes en contactar con TikTok, donde descubrió el vídeo falso, y otras tres semanas en demostrar que era el legítimo «Dr. Eye Health». Una cuenta fue eliminada de la plataforma, pero en dos o tres horas, los estafadores crearon una nueva cuenta y volvieron a subir todo el contenido anterior. En el caso del Dr. Allen, el producto que se vendía en la estafa eran gotas para los ojos para corregir la miopía. Se rastreó el origen de las gotas hasta una empresa china que vendía millones de dólares en productos en Amazon. El contenido de las gotas sigue siendo incierto.

El Dr. Allen recomienda buscar señales reveladoras de videos generados por IA, teniendo en cuenta que, a medida que la IA avanza, estas señales pueden volverse más sutiles o incluso corregirse. Analice detenidamente el contenido del video en busca de ediciones extrañas, como por ejemplo: ¿coinciden los labios del sujeto con la voz y el audio? ¿Parpadea demasiado o muy poco? Si se trata de la venta de un producto demasiado bueno para ser verdad, probablemente lo sea, así que asegúrese de observar y analizar cuidadosamente este tipo de contenido.

¿Se ve natural o no? Los deepfakes aún tienen dificultades para representar la iluminación natural y pueden hacer que el sujeto se vea poco natural debido a una discrepancia en las condiciones de iluminación o los reflejos. Investigadores del MIT ofrecen más señales, incluyendo pistas sobre los ojos y las cejas, el parpadeo y el brillo en las gafas. A medida que la IA difumina los límites entre la realidad y la ficción, la responsabilidad recae en el pensamiento crítico individual sobre el contenido de los medios de comunicación.

Leer Más
Loading...
Uso indebido del nombre de un cardiólogo y periodista albanés para vender medicamentos contra la hipertensión.

Incidente 1452: Según informes, se utilizaron en Facebook supuestas suplantaciones de identidad generadas por IA del cardiólogo albanés Spiro Qirko y del periodista Ilir Topi para promocionar un producto para la hipertensión en Kosovo.

Traducido por IA
“Uso indebido del nombre de un cardiólogo y periodista albanés para vender medicamentos contra la hipertensión.”
kallxo.com2026-04-18

Uso indebido del nombre de un cardiólogo y periodista albanés para vender medicamentos para la hipertensión. = Vídeo manipulado y de gran impacto. El medicamento «Hyper Caps» no cuenta con la autorización de comercialización de la Agencia de Productos y Dispositivos Médicos de Kosovo (AKPPM), lo que lo convierte en ilegal en Kosovo.

Artículo

Página de Facebook Búsqueda del Dr. Spiro ile_Feed&a=fy-BRI-bloomfield-B&x=961459690129113&cn=al2294truba&cel1=2294&fbclid=IwdGRzaAQrbrBleHRuA2FlbQEwAGFkaWQBqzLIRp2UVXNydGMGYXBwX2lkDDM1MDY4NTUzMTcyOAABHi27JJ8 ZYZmVh3hPAv_ZnPN9a3GlXpwYultUkUdZFTpoQJ1vw-Vc2tjBGJ0m_aem_eBCvBlVEfeAdsh1Ekfq1SA&utm_medium=paid&utm_source=fb&utm_id=120245649803330357&utm_content=12024564980334035 7. ha publicado un video en el que afirma haber descubierto una cura para la hipertensión.

En el video, entre otras cosas, se afirma que las compañías farmacéuticas están combatiendo este medicamento.

"Como especialista, la gente a menudo me pregunta: "¿Es posible curar completamente la hipertensión?". La respuesta es SÍ. 🩺 He creado un método que en pocos días elimina la presión y la carga sobre las venas, sin procedimientos costosos. El secreto reside en la estimulación adecuada de las venas y el sistema cardiovascular. «En el vídeo verá exactamente cómo funciona mi fórmula y se olvidará de la hipertensión para siempre. Sentirá los resultados de inmediato», se lee en esta publicación.

Además, se ha publicado un vídeo en forma de entrevista que presenta este medicamento.

Se afirma que la entrevista fue realizada por el periodista Ilir Topi (el entrevistador) al doctor Spiro Qirko, quien explica cómo se cura la hipertensión.

«Hyper Caps» es el producto que, según se afirma, fue descubierto por un cardiólogo y cura la hipertensión.

Krypometer también consultó la lista de medicamentos con autorización de comercialización en Kosovo (https://akppm.rks-gov.net/DocumentsAndPublications/DocumentsAndPublications/1092) para comprobar si su venta y comercialización están permitidas en el país.

Tras consultar la página web de la Agencia de Productos y Dispositivos Médicos de Kosovo (AKPPM), se constató que el producto «Hyper Caps» no figura en la lista de medicamentos con autorización de comercialización. Autorización.

El artículo 16 de la Ley de Medicamentos y Dispositivos Médicos establece que «el medicamento solo podrá comercializarse en la República de Kosovo tras obtener la autorización de comercialización de la KPAPM».

Krypometer ha realizado pruebas. este[video](https://fit.my-health.blog/M24T3jcX?media_type=video&campaign_id=120245649803330357&adset_id=120245649803350357&ad_id=120245649803340357&placement=Facebook_Mobile_Feed&a=fy-BRI-bloomfield-B&x=961459690129113&cn=al2294truba&cel1=2294&fbclid=IwdGRzaAQrbrBleHRuA2FlbQEwAGFkaWQBqzLIRp2UVXNydGMGYXBwX2lkDDM 1MDY4NTUzMTcyOAABHi27JJ8ZYZmVh3hPAv_ZnPN9a3GlXpwYultUkUdZFTpoQJ1vw-Vc2tjBGJ0m_aem_eBCvBlVEfeAdsh1Ekfq1SA&utm_medium=paid&utm_source=fb&utm_id=120245649803330 357. Plataforma que detecta contenido creado con Inteligencia Artificial y sus resultados muestran que el video tiene una probabilidad del 96,4 % de haber sido generado con IA, al igual que el discurso (archivo).

Krypometer contactó al periodista Ilir Topi y al cardiólogo albanés Spiro Qirko, quienes negaron tener nada que ver con el contenido. En relación con este perfil o el contenido de este video.

"Es generado con IA, falso", dijo Topi.

"Me siento muy insultado por este fraude tan repugnante que especula de la manera más sucia e inaudita con mi nombre y mi persona. Es extremadamente delictivo", dijo Qirko (https://www.youtube.com/watch?v=tCyds9FxL0g), un cardiólogo de Albania.

Qirko afirmó que nunca ha recomendado remedios herbales para tratar la hipertensión.

Hipertensión

El cardiólogo Qirko explicó que, según las directrices de la Sociedad Europea de Cardiología, actualmente la presión arterial se considera normal hasta 135/85 mm/Hg.

"Por encima de estas cifras, se considera hipertensión y debe tratarse regularmente. El tratamiento suele consistir en el uso de uno o una combinación de dos medicamentos de diferentes clases, según la elección del médico, y siguiendo la evolución de la presión arterial del paciente", dijo Qirko.

Leer Más
Loading...
¿Está Nirmala Sitharaman promoviendo una inversión de 22.000 rupias para obtener una rentabilidad de 550.000 rupias? La verificación de datos del PIB revela la verdad detrás del video viral.

Incidente 1454: Según se informa, un supuesto vídeo deepfake mostraba a Nirmala Sitharaman respaldando un plan de inversión.

Traducido por IA
“¿Está Nirmala Sitharaman promoviendo una inversión de 22.000 rupias para obtener una rentabilidad de 550.000 rupias? La verificación de datos del PIB revela la verdad detrás del video viral.”
latestly.com2026-04-18

Nueva Delhi, 16 de abril: El brazo de verificación de datos del gobierno, PIB Fact Check, desmintió el jueves un video viral que muestra falsamente a la ministra de Finanzas, Nirmala Sitharaman, respaldando un esquema de inversión de alto rendimiento, advirtiendo a los ciudadanos que no caigan en dicha desinformación. En una publicación en la plataforma de redes sociales X, PIB Fact Check dijo que el video, que afirma que una inversión de 22,000 rupias podría generar ganancias de 5.5 lakh de rupias en una semana, es falso y generado mediante inteligencia artificial. "Un video viral de la ministra de Finanzas, Nirmala Sitharaman, afirma ofrecer 5,50,000 rupias en una semana a cambio de una inversión inicial de 22,000 rupias. El video es falso y generado por IA", dijo.  [¿Nirmala Sitharaman promovió un esquema de inversión de alto rendimiento en línea? PIB Fact Check desmiente video de IA (https://www.latestly.com/social-viral/fact-check/did-nirmala-sitharaman-promote-a-high-return-investment-scheme-online-pib-fact-check-debunks-ai-video-7373094.html).

La agencia aclaró que ni el Gobierno de la India ni el Ministro de Finanzas están promoviendo ni respaldando ningún plan de este tipo, e instó a la población a ser cautelosa con el contenido engañoso que circula en línea. «Ni el Gobierno ni el Ministro de Finanzas respaldan ningún plan de inversión de este tipo», agregó. La unidad de verificación de datos también aconsejó a los ciudadanos que verifiquen dichas afirmaciones a través de fuentes gubernamentales oficiales antes de tomar cualquier decisión financiera. Asimismo, hizo un llamado a los usuarios para que denuncien y señalen el contenido sospechoso para ayudar a frenar la propagación de la desinformación.

«Manténganse alerta. Verifiquen dichas afirmaciones únicamente a través de fuentes gubernamentales oficiales», indicó PIB Fact Check. Mientras tanto, el mes pasado, la Oficina de Información de Prensa (PIB) alertó sobre un mensaje falso que circulaba en redes sociales y que afirmaba que las cuentas de la aplicación YONO del Banco Estatal de la India (SBI) se bloquearían si los usuarios no actualizaban sus datos de Aadhaar de inmediato. El supuesto mensaje indicaba a los destinatarios que descargaran un archivo APK titulado "SBI KYC AADHAR UPDATE" y lo instalaran para evitar la interrupción del servicio. "La advertencia, que parece ser un intento de phishing, está diseñada para engañar a los titulares de cuentas y obtener información bancaria y personal confidencial", declaró la PIB el mes pasado.

Calificación de confianza: 5 estrellas | En una escala de confianza de 0 a 5, este artículo obtuvo una calificación de 5 en LatestLY. Ha sido verificado mediante fuentes oficiales (Cuenta Oficial X de Verificación de Datos de la PIB). La información ha sido minuciosamente contrastada y confirmada. Puede compartir este artículo con confianza con sus amigos y familiares, sabiendo que es fiable y fidedigno.

Leer Más
Enviar URL Rapidamente

Los enlaces enviados se agregan a una cola de revisión para que se resuelvan en un registro de incidente nuevo o existente. Los incidentes enviados con detalles completos se procesan antes que las URL que no poseen los detalles completos.
Acerca de la Base de Datos

La base de datos de incidentes de IA está dedicada a indexar el historial colectivo de daños o casi daños realizados en el mundo real por el despliegue de sistemas de inteligencia artificial. Al igual que bases de datos similares en aviación y seguridad informática, la base de datos de incidentes de IA tiene como objetivo aprender de la experiencia para que podamos prevenir o mitigar los malos resultados.

Estás invitado a enviar informes de incidentes, después de lo cual los envíos se indexarán y se harán visibles para el mundo. La inteligencia artificial solo será un beneficio para las personas y la sociedad si registramos colectivamente y aprendemos de sus fallas. (Más información)

post-image
Investigación de incidentes de IA para construir un futuro más seguro: el Instituto de Investigación de Seguridad Digital se asocia con Responsible AI Collaborative

By TheCollab Board of Directors

2024-02-20

El Instituto de Investigación de Seguridad Digital (DSRI) de los Institutos de Investigación de UL se está asociando con Responsible AI Coll...

Leer Más
La Base de Datos en la Prensa

Lea acerca de la base de datos en Time Magazine, Vice News, Venture Beat, Wired y Bulletin of the Atomic Scientists entre otros puntos de venta.

Arxiv LogoVenture Beat LogoWired LogoVice logoVice logo
Rankings de Reportadores de Incidentes

Estas son las personas y entidades acreditadas con la creación y presentación de informes de incidentes. Hay más detalles disponibles en la página de rankings.

Nuevos incidentes aportados
  • 🥇

    Daniel Atherton

    779
  • 🥈

    Anonymous

    157
  • 🥉

    Khoa Lam

    93
Reportes agregados a Incidentes Existentes
  • 🥇

    Daniel Atherton

    883
  • 🥈

    Anonymous

    243
  • 🥉

    Khoa Lam

    230
Informe total de contribuciones
  • 🥇

    Daniel Atherton

    3010
  • 🥈

    Anonymous

    934
  • 🥉

    Khoa Lam

    417
El Informe de Incidentes de IA
An envelope with a neural net diagram on its left

Create an account to subscribe to new incident notifications and other updates.

Incidentes Aleatorios
Loading...
Predictive Policing Biases of PredPol
Predictive Policing Biases of PredPol
Loading...
Aledo High School Student Allegedly Generates and Distributes Deepfake Nudes of Seven Female Classmates
Aledo High School Student Allegedly Generates and Distributes Deepfake Nudes of Seven Female Classmates
Loading...
ChatGPT Reportedly Introduces Errors in Critical Child Protection Court Report
ChatGPT Reportedly Introduces Errors in Critical Child Protection Court Report
Loading...
Child Sexual Abuse Material Taints Image Generators
Child Sexual Abuse Material Taints Image Generators
Loading...
ChatGPT Reportedly Produced False Court Case Law Presented by Legal Counsel in Court
ChatGPT Reportedly Produced False Court Case Law Presented by Legal Counsel in Court
El Colaborativo de IA Responsable

La base de datos de incidentes de IA es un proyecto de Responsible AI Collaborative, una organización autorizada para promover la base de datos de incidentes de IA. La gobernanza de la Colaborativa se estructura en torno a la participación en su programación de impacto. Para obtener más detalles, lo invitamos a leer el informe de fundación y obtener más información sobre nuestro and learn more on our.

View the Responsible AI Collaborative's Form 990 and tax-exempt application. We kindly request your financial support with a donation.

Patrocinador fundador de la organización
Patrocinador fundador de la base de datos
Patrocinadores y subvenciones
Patrocinadores similares

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2026 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • 01af10e