Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 4159

Incidentes Asociados

Incidente 8178 Reportes
Purportedly AI-Generated Images Reportedly Spread Misinformation During Hurricane Helene Response

Loading...
Los “deepfakes” de IA de las víctimas del huracán Helene circulan en las redes sociales y “dañan a personas reales”
nypost.com · 2024

A raíz del huracán Helene, la desinformación ha inundado Internet, incluidas dos imágenes manipuladas por IA de un niño desesperado y sollozando a bordo de un barco en una supuesta inundación.

A primera vista, las fotos que circulan en línea simplemente muestran a un niño con un chaleco salvavidas sosteniendo un perro mientras la lluvia de la tormenta, la peor que azotó a los EE. UU. desde el huracán Katrina en 2005, continúa empapándolos.

Sin embargo, una mirada más cercana revela varias discrepancias entre las dos fotos casi idénticas, como informa Forbes.

Dos fotos similares de un niño sosteniendo un cachorro en aparentes aguas de inundación fueron generadas por IA después del huracán Helene, lo que contribuyó a una avalancha de desinformación que ha seguido a la tormenta. Larry Avis West/Facebook

Las imágenes “deepfake” que circularon en Internet muestran a una niña pequeña con un cachorro, aparentemente flotando en las aguas de la inundación provocada por el huracán Helene. Larry Avis West/Facebook

En una foto, la niña incluso tiene un dedo extra mal colocado.

También lleva dos camisetas diferentes y está sentada en un tipo de barco diferente en cada foto. El pelaje del cachorro también es ligeramente más oscuro en una toma, que también está más borrosa y pixelada.

El senador Mike Lee de Utah estuvo entre los que se enamoraron de la foto, quien la compartió el jueves X y escribió: “Subtitule esta foto”. Más tarde, la borró después de que los usuarios señalaran que la imagen era falsa.

Un usuario de Facebook también cayó en la trampa de la imagen "deepfake" y la compartió con el título: "¡Dios mío, ayuda a nuestros bebés y a sus familias!".

Algunos comentaristas señalaron las señales obvias de que había sido manipulada.

Las imágenes manipuladas que retratan desastres pueden tener consecuencias a largo plazo, complicar los esfuerzos de socorro, crear narrativas falsas, erosionar la confianza pública en tiempos de crisis y dañar a personas reales, informó Forbes. También se pueden utilizar para estafar a personas para que donen a recaudaciones de fondos falsas, aunque no está claro si la imagen del niño se ha utilizado para ese propósito.

Las imágenes generadas por IA desvían la atención de las personas reales afectadas por las tragedias, dicen los expertos. Ben Hendren

Una imagen generada por inteligencia artificial que se compartió ampliamente en línea en mayo mostraba filas de tiendas de campaña perfectamente organizadas en Gaza, con varias tiendas en el centro que decían “All Eyes on Rafah”

La foto falsa fue compartida por decenas de millones de personas en las redes sociales, entre ellas la ganadora del Premio Nobel de la Paz Malala Yousafzai y la modelo Gigi Hadid, pero los críticos dicen que no logró capturar la realidad de la región devastada por la guerra.

“La gente ha estado publicando contenido muy gráfico y perturbador para generar conciencia, y eso se censura mientras que un material multimedia sintético se vuelve viral”, dijo a Los Angeles Times Deborah Brown, investigadora principal y defensora de los derechos digitales del grupo Human Rights Watch. (https://www.latimes.com/world-nation/story/2024-05-30/all-eyes-on-rafah-viral-ai-image-gaza-war)

Las imágenes manipuladas pueden complicar los esfuerzos de respuesta a desastres, crear narrativas falsas y erosionar la confianza pública en tiempos de crisis. Nathan Fish / USA TODAY NETWORK vía Imagn Images

Otras informaciones erróneas sobre el huracán Helene han circulado en Internet, lo que ha llevado a FEMA a lanzar una página de “Respuesta a rumores” en su sitio web, que aborda las falsedades que afirman que la agencia está confiscando las propiedades de los sobrevivientes, distribuyendo ayuda en función de las características demográficas y confiscando donaciones y suministros.

Una teoría conspirativa afirmaba que el gobierno utilizó tecnología de control del clima para dirigir el huracán hacia los votantes republicanos, según informes.

“Ayude a protegerse a usted mismo, a su familia y a su comunidad después del huracán Helene siendo consciente de los rumores y las estafas y compartiendo información oficial de fuentes confiables”, aconsejó FEMA.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd