Bienvenido ala base de datos de incidentes de IA
Incidente 1455: Supuestos videos deepfake suplantaron la identidad del optometrista Joseph Allen para promocionar gotas para los ojos que revierten la miopía en TikTok.
“Optometrista contraataca tras estafa con deepfake”Último informe
Joseph Allen, OD, es muy conocido en el circuito de conferencias, en las redes sociales y por su canal de YouTube, Dr. Eye Health, donde educa a sus seguidores sobre diversos temas de salud ocular. Sin embargo, su notoriedad tuvo un lado negativo cuando descubrió videos en redes sociales que se parecían a él, tanto en apariencia como en voz, pero que difundían información falsa y vendían productos fraudulentos. El Dr. Allen fue víctima de una estafa con deepfakes de IA (https://www.aoa.org/news/clinical-eye-care/public-health/living-an-episode-of-black-mirror-ai-deepfakes-target-optometrist).
Los deepfakes y videos de baja calidad generados por IA están cada vez más dirigidos a médicos reales, suplantándolos para crear contenido fácil y automatizado que puede difundir información errónea y peligrosa sobre la salud. Los deepfakes son contenido manipulado o fabricado mediante IA que suplanta la identidad de una persona real con el fin de difundir información maliciosa o falsa.
Los vídeos de spam con IA son contenido de vídeo producido a gran escala mediante IA que explota los algoritmos de interacción de las redes sociales e inunda plataformas como YouTube, TikTok o Instagram, desplazando a los creadores de contenido original. El Dr. Allen señaló: «En algunos de estos vídeos, te dicen que no vayas a tu oftalmólogo y que toda nuestra profesión es una estafa».
Con asesoría legal, el Dr. Allen impugnó los deepfakes dirigidos a su canal, pero tardó un mes en contactar con TikTok, donde descubrió el vídeo falso, y otras tres semanas en demostrar que era el legítimo «Dr. Eye Health». Una cuenta fue eliminada de la plataforma, pero en dos o tres horas, los estafadores crearon una nueva cuenta y volvieron a subir todo el contenido anterior. En el caso del Dr. Allen, el producto que se vendía en la estafa eran gotas para los ojos para corregir la miopía. Se rastreó el origen de las gotas hasta una empresa china que vendía millones de dólares en productos en Amazon. El contenido de las gotas sigue siendo incierto.
El Dr. Allen recomienda buscar señales reveladoras de videos generados por IA, teniendo en cuenta que, a medida que la IA avanza, estas señales pueden volverse más sutiles o incluso corregirse. Analice detenidamente el contenido del video en busca de ediciones extrañas, como por ejemplo: ¿coinciden los labios del sujeto con la voz y el audio? ¿Parpadea demasiado o muy poco? Si se trata de la venta de un producto demasiado bueno para ser verdad, probablemente lo sea, así que asegúrese de observar y analizar cuidadosamente este tipo de contenido.
¿Se ve natural o no? Los deepfakes aún tienen dificultades para representar la iluminación natural y pueden hacer que el sujeto se vea poco natural debido a una discrepancia en las condiciones de iluminación o los reflejos. Investigadores del MIT ofrecen más señales, incluyendo pistas sobre los ojos y las cejas, el parpadeo y el brillo en las gafas. A medida que la IA difumina los límites entre la realidad y la ficción, la responsabilidad recae en el pensamiento crítico individual sobre el contenido de los medios de comunicación.
Incidente 1452: Según informes, se utilizaron en Facebook supuestas suplantaciones de identidad generadas por IA del cardiólogo albanés Spiro Qirko y del periodista Ilir Topi para promocionar un producto para la hipertensión en Kosovo.
“Uso indebido del nombre de un cardiólogo y periodista albanés para vender medicamentos contra la hipertensión.”
Uso indebido del nombre de un cardiólogo y periodista albanés para vender medicamentos para la hipertensión. = Vídeo manipulado y de gran impacto. El medicamento «Hyper Caps» no cuenta con la autorización de comercialización de la Agencia de Productos y Dispositivos Médicos de Kosovo (AKPPM), lo que lo convierte en ilegal en Kosovo.
Artículo
Página de Facebook Búsqueda del Dr. Spiro ile_Feed&a=fy-BRI-bloomfield-B&x=961459690129113&cn=al2294truba&cel1=2294&fbclid=IwdGRzaAQrbrBleHRuA2FlbQEwAGFkaWQBqzLIRp2UVXNydGMGYXBwX2lkDDM1MDY4NTUzMTcyOAABHi27JJ8 ZYZmVh3hPAv_ZnPN9a3GlXpwYultUkUdZFTpoQJ1vw-Vc2tjBGJ0m_aem_eBCvBlVEfeAdsh1Ekfq1SA&utm_medium=paid&utm_source=fb&utm_id=120245649803330357&utm_content=12024564980334035 7. ha publicado un video en el que afirma haber descubierto una cura para la hipertensión.
En el video, entre otras cosas, se afirma que las compañías farmacéuticas están combatiendo este medicamento.
"Como especialista, la gente a menudo me pregunta: "¿Es posible curar completamente la hipertensión?". La respuesta es SÍ. 🩺 He creado un método que en pocos días elimina la presión y la carga sobre las venas, sin procedimientos costosos. El secreto reside en la estimulación adecuada de las venas y el sistema cardiovascular. «En el vídeo verá exactamente cómo funciona mi fórmula y se olvidará de la hipertensión para siempre. Sentirá los resultados de inmediato», se lee en esta publicación.
Además, se ha publicado un vídeo en forma de entrevista que presenta este medicamento.
Se afirma que la entrevista fue realizada por el periodista Ilir Topi (el entrevistador) al doctor Spiro Qirko, quien explica cómo se cura la hipertensión.
«Hyper Caps» es el producto que, según se afirma, fue descubierto por un cardiólogo y cura la hipertensión.
Krypometer también consultó la lista de medicamentos con autorización de comercialización en Kosovo (https://akppm.rks-gov.net/DocumentsAndPublications/DocumentsAndPublications/1092) para comprobar si su venta y comercialización están permitidas en el país.
Tras consultar la página web de la Agencia de Productos y Dispositivos Médicos de Kosovo (AKPPM), se constató que el producto «Hyper Caps» no figura en la lista de medicamentos con autorización de comercialización. Autorización.
El artículo 16 de la Ley de Medicamentos y Dispositivos Médicos establece que «el medicamento solo podrá comercializarse en la República de Kosovo tras obtener la autorización de comercialización de la KPAPM».
Krypometer ha realizado pruebas. este[video](https://fit.my-health.blog/M24T3jcX?media_type=video&campaign_id=120245649803330357&adset_id=120245649803350357&ad_id=120245649803340357&placement=Facebook_Mobile_Feed&a=fy-BRI-bloomfield-B&x=961459690129113&cn=al2294truba&cel1=2294&fbclid=IwdGRzaAQrbrBleHRuA2FlbQEwAGFkaWQBqzLIRp2UVXNydGMGYXBwX2lkDDM 1MDY4NTUzMTcyOAABHi27JJ8ZYZmVh3hPAv_ZnPN9a3GlXpwYultUkUdZFTpoQJ1vw-Vc2tjBGJ0m_aem_eBCvBlVEfeAdsh1Ekfq1SA&utm_medium=paid&utm_source=fb&utm_id=120245649803330 357. Plataforma que detecta contenido creado con Inteligencia Artificial y sus resultados muestran que el video tiene una probabilidad del 96,4 % de haber sido generado con IA, al igual que el discurso (archivo).
Krypometer contactó al periodista Ilir Topi y al cardiólogo albanés Spiro Qirko, quienes negaron tener nada que ver con el contenido. En relación con este perfil o el contenido de este video.
"Es generado con IA, falso", dijo Topi.
"Me siento muy insultado por este fraude tan repugnante que especula de la manera más sucia e inaudita con mi nombre y mi persona. Es extremadamente delictivo", dijo Qirko (https://www.youtube.com/watch?v=tCyds9FxL0g), un cardiólogo de Albania.
Qirko afirmó que nunca ha recomendado remedios herbales para tratar la hipertensión.
Hipertensión
El cardiólogo Qirko explicó que, según las directrices de la Sociedad Europea de Cardiología, actualmente la presión arterial se considera normal hasta 135/85 mm/Hg.
"Por encima de estas cifras, se considera hipertensión y debe tratarse regularmente. El tratamiento suele consistir en el uso de uno o una combinación de dos medicamentos de diferentes clases, según la elección del médico, y siguiendo la evolución de la presión arterial del paciente", dijo Qirko.
Incidente 1454: Según se informa, un supuesto vídeo deepfake mostraba a Nirmala Sitharaman respaldando un plan de inversión.
“¿Está Nirmala Sitharaman promoviendo una inversión de 22.000 rupias para obtener una rentabilidad de 550.000 rupias? La verificación de datos del PIB revela la verdad detrás del video viral.”
Nueva Delhi, 16 de abril: El brazo de verificación de datos del gobierno, PIB Fact Check, desmintió el jueves un video viral que muestra falsamente a la ministra de Finanzas, Nirmala Sitharaman, respaldando un esquema de inversión de alto rendimiento, advirtiendo a los ciudadanos que no caigan en dicha desinformación. En una publicación en la plataforma de redes sociales X, PIB Fact Check dijo que el video, que afirma que una inversión de 22,000 rupias podría generar ganancias de 5.5 lakh de rupias en una semana, es falso y generado mediante inteligencia artificial. "Un video viral de la ministra de Finanzas, Nirmala Sitharaman, afirma ofrecer 5,50,000 rupias en una semana a cambio de una inversión inicial de 22,000 rupias. El video es falso y generado por IA", dijo. [¿Nirmala Sitharaman promovió un esquema de inversión de alto rendimiento en línea? PIB Fact Check desmiente video de IA (https://www.latestly.com/social-viral/fact-check/did-nirmala-sitharaman-promote-a-high-return-investment-scheme-online-pib-fact-check-debunks-ai-video-7373094.html).
La agencia aclaró que ni el Gobierno de la India ni el Ministro de Finanzas están promoviendo ni respaldando ningún plan de este tipo, e instó a la población a ser cautelosa con el contenido engañoso que circula en línea. «Ni el Gobierno ni el Ministro de Finanzas respaldan ningún plan de inversión de este tipo», agregó. La unidad de verificación de datos también aconsejó a los ciudadanos que verifiquen dichas afirmaciones a través de fuentes gubernamentales oficiales antes de tomar cualquier decisión financiera. Asimismo, hizo un llamado a los usuarios para que denuncien y señalen el contenido sospechoso para ayudar a frenar la propagación de la desinformación.
«Manténganse alerta. Verifiquen dichas afirmaciones únicamente a través de fuentes gubernamentales oficiales», indicó PIB Fact Check. Mientras tanto, el mes pasado, la Oficina de Información de Prensa (PIB) alertó sobre un mensaje falso que circulaba en redes sociales y que afirmaba que las cuentas de la aplicación YONO del Banco Estatal de la India (SBI) se bloquearían si los usuarios no actualizaban sus datos de Aadhaar de inmediato. El supuesto mensaje indicaba a los destinatarios que descargaran un archivo APK titulado "SBI KYC AADHAR UPDATE" y lo instalaran para evitar la interrupción del servicio. "La advertencia, que parece ser un intento de phishing, está diseñada para engañar a los titulares de cuentas y obtener información bancaria y personal confidencial", declaró la PIB el mes pasado.
Calificación de confianza: 5 estrellas | En una escala de confianza de 0 a 5, este artículo obtuvo una calificación de 5 en LatestLY. Ha sido verificado mediante fuentes oficiales (Cuenta Oficial X de Verificación de Datos de la PIB). La información ha sido minuciosamente contrastada y confirmada. Puede compartir este artículo con confianza con sus amigos y familiares, sabiendo que es fiable y fidedigno.
Incidente 1450: Un hombre de Florida presuntamente utilizó un supuesto video deepfake para denunciar el robo del vehículo patrulla de un agente en Lake Mary.
“Un hombre de Florida presuntamente utilizó un video deepfake generado por IA para denunciar falsamente el robo del vehículo patrulla de un agente en Lake Mary.”
CONDADO DE SEMINOLE, Florida – Un hombre del sur de Florida fue arrestado tras mostrar un video generado por inteligencia artificial a un agente en una tienda de Lake Mary el mes pasado, según la Oficina del Sheriff del Condado de Seminole.
En un comunicado, la Oficina del Sheriff indicó que el agente se encontraba dentro de Academy Sports, en Lake Emma Road, cuando el hombre, identificado como Alexis Martínez-Arizala, de 25 años, se le acercó.
"(Martínez-Arizala) afirmó haber visto a varias personas entrar en el vehículo patrulla del agente en el estacionamiento y presentó un video de su teléfono celular como prueba", dice el comunicado. "El video, de aproximadamente tres segundos de duración, parecía mostrar a dos individuos entrando en el vehículo patrulla estacionado cerca de la tienda".
Pero cuando el agente revisó su patrulla, no encontró nada alterado ni robado, señalaron los investigadores.
En cambio, las imágenes de las cámaras de seguridad de la tienda mostraron que nadie se había acercado al vehículo patrulla durante ese lapso de tiempo, y los agentes concluyeron posteriormente que el video del teléfono celular había sido manipulado. Por lo tanto, se emitió una orden de arresto contra Martínez-Arizala, quien fue detenido el miércoles tras ser localizado en San Juan, Puerto Rico.
"Los investigadores también descubrieron que Martínez-Arizala publicó contenido relacionado con el incidente en sus redes sociales, en un aparente intento de llamar la atención y generar contenido viral", continúa el comunicado.
Ahora, Martínez-Arizala enfrenta cargos por falsificación de pruebas, denuncia falsa ante las autoridades, uso indebido de un dispositivo de comunicación bidireccional y proporcionar información falsa a sabiendas a un agente de la ley sobre la presunta comisión de un delito.
Será extraditado al condado de Seminole, donde permanecerá detenido bajo fianza de $7,000.
"El uso indebido de la inteligencia artificial para crear videos deepfake es una preocupación creciente, especialmente cuando se dirige contra profesionales de la seguridad pública", declaró el sheriff Dennis Lemma. Estos vídeos manipulados pueden dañar reputaciones, generar tensiones innecesarias y plantear serios problemas de seguridad para los servicios de emergencia que sirven a nuestras comunidades. A medida que esta tecnología se vuelve más accesible, nos tomamos muy en serio este tipo de delitos y actuaremos para proteger a quienes son blanco de estos ataques en nuestra comunidad, incluyendo tanto a los ciudadanos como a los profesionales de la seguridad pública que trabajan a diario para mantener a salvo a nuestros residentes.
Incidente 1447: El Sexto Circuito sancionó a los abogados en el caso Whiting contra la ciudad de Athens por presuntas citas de apelación falsas en escritos que, según se informa, presentaban características propias de alucinaciones.
“Un tribunal de apelaciones de EE. UU. multa a abogados con 30.000 dólares en la última sanción relacionada con la IA.”
16 de marzo (Reuters) - Un panel de un tribunal federal de apelaciones de EE. UU. dictaminó que una apelación que contiene citas falsas de casos que tergiversan la ley puede ser desestimada por frívola, en una decisión que sanciona a dos abogados que presentaron documentos con características propias de "alucinaciones" de inteligencia artificial.
El Sexto Circuito de Apelaciones de EE. UU., con sede en Cincinnati, declaró el viernes en su auto (https://fingfx.thomsonreuters.com/gfx/legaldocs/zjvqmegykvx/6th%20Circuit%20sanctions%20order.pdf) que los abogados Van Irion y Russ Egli "mancharon la reputación de nuestro colegio de abogados, que ahora debe litigar bajo la sombra de su conducta".
El tribunal indicó que encontró más de dos docenas de citas falsas y tergiversaciones de hechos en la apelación, que involucraba un incidente en un espectáculo de fuegos artificiales organizado por la ciudad de Athens, Tennessee. En una orden previa del caso, el tribunal de apelaciones preguntó a los abogados cómo verificaron la exactitud de sus escritos y si utilizaron inteligencia artificial generativa para redactarlos. Los abogados no respondieron a las preguntas del tribunal sobre la IA y, en cambio, impugnaron la legalidad de la orden.
Según la orden, los dos abogados deben reembolsar a Athens los honorarios legales incurridos en la apelación y, además, pagar individualmente 15.000 dólares cada uno al tribunal de apelaciones como sanción punitiva.
Egli e Irion, en un comunicado emitido el martes, afirmaron que niegan categóricamente las acusaciones del tribunal sobre la citación de casos falsos y sostienen que se les negó una oportunidad real de responder a las preguntas del panel.
"Estamos ejerciendo todos los recursos legales disponibles para impugnar esta orden, que presenta deficiencias procesales, y defender la integridad del proceso judicial", indicaron los abogados en su comunicado. Irion declaró a Reuters que "el Tribunal de Circuito está ignorando sus propias normas y los secretarios judiciales están firmando órdenes sustantivas sin autorización".
El alcalde de Atenas, Larry Eaton, afirmó el lunes que el tribunal de apelaciones, en una orden relacionada, confirmó la desestimación de varias demandas contra la ciudad por el evento de fuegos artificiales de 2022. Eaton calificó la decisión de "tranquilizadora".
La decisión sobre las sanciones se produce en un momento en que más tribunales se enfrentan a citas de casos falsas y otros errores atribuibles a plataformas de inteligencia artificial generativa, que en ocasiones fabrican información. Los abogados no tienen prohibido usar herramientas de IA, pero están obligados a salvaguardar la exactitud de sus presentaciones, y decenas de abogados han sido sancionados en los últimos años por presentar material generado por IA sin haberlo revisado.
Irion y Egli impugnaron la solicitud del tribunal de apelaciones de que se les proporcionaran detalles sobre cómo prepararon sus presentaciones, argumentando, en parte, que hacerlo violaría la protección del secreto profesional de los abogados y sus comunicaciones con los clientes.
El panel del Sexto Circuito, integrado por los jueces John Bush, Jane Branstetter Stranch y Eric Murphy, declaró que «el hecho de que se hayan revisado las citas de los escritos, y cómo se haya hecho, no implica conversaciones sobre asesoramiento legal».
«La mayoría de los litigantes que presentaron demandas falsas se disculparon y pidieron perdón, reconociendo con razón la gravedad de su mala conducta», escribió Bush en nombre del panel.
Los jueces, por el contrario, afirmaron: «Irion y Egli reprendieron a este tribunal y lo acusaron de participar en una vasta conspiración para acosarlos».
El caso es Whiting contra la Ciudad de Atenas, Tribunal de Apelaciones del Sexto Circuito de los Estados Unidos, n.° 25-5424.
Enviar URL Rapidamente
Acerca de la Base de Datos
La base de datos de incidentes de IA está dedicada a indexar el historial colectivo de daños o casi daños realizados en el mundo real por el despliegue de sistemas de inteligencia artificial. Al igual que bases de datos similares en aviación y seguridad informática, la base de datos de incidentes de IA tiene como objetivo aprender de la experiencia para que podamos prevenir o mitigar los malos resultados.
Estás invitado a enviar informes de incidentes, después de lo cual los envíos se indexarán y se harán visibles para el mundo. La inteligencia artificial solo será un beneficio para las personas y la sociedad si registramos colectivamente y aprendemos de sus fallas. (Más información)

Investigación de incidentes de IA para construir un futuro más seguro: el Instituto de Investigación de Seguridad Digital se asocia con Responsible AI Collaborative
By TheCollab Board of Directors
2024-02-20
El Instituto de Investigación de Seguridad Digital (DSRI) de los Institutos de Investigación de UL se está asociando con Responsible AI Coll...
La Base de Datos en la Prensa
Lea acerca de la base de datos en Time Magazine, Vice News, Venture Beat, Wired y Bulletin of the Atomic Scientists entre otros puntos de venta.
Rankings de Reportadores de Incidentes
Estas son las personas y entidades acreditadas con la creación y presentación de informes de incidentes. Hay más detalles disponibles en la página de rankings.
El Informe de Incidentes de IA

Create an account to subscribe to new incident notifications and other updates.
Incidentes Aleatorios
El Colaborativo de IA Responsable
La base de datos de incidentes de IA es un proyecto de Responsible AI Collaborative, una organización autorizada para promover la base de datos de incidentes de IA. La gobernanza de la Colaborativa se estructura en torno a la participación en su programación de impacto. Para obtener más detalles, lo invitamos a leer el informe de fundación y obtener más información sobre nuestro and learn more on our.

View the Responsible AI Collaborative's Form 990 and tax-exempt application. We kindly request your financial support with a donation.
Patrocinador fundador de la organización
Patrocinador fundador de la base de datos





