Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Bienvenido a
la base de datos de incidentes de IA

Loading...
El borrador de la política gubernamental sobre IA cita referencias ficticias que, según los expertos, son alucinaciones de la IA.

Incidente 1467: Según informes, el borrador de la política nacional de IA de Sudáfrica incluía referencias ficticias que se cree que son alucinaciones de la IA.

Traducido por IA
“El borrador de la política gubernamental sobre IA cita referencias ficticias que, según los expertos, son alucinaciones de la IA.”Último informe
news24.com2026-04-25

El documento de política nacional destinado a definir el enfoque de Sudáfrica hacia la inteligencia artificial (IA) podría haber caído víctima de uno de sus escollos más conocidos.

News24 revela en exclusiva que algunos de los artículos de revistas académicas citados en el Borrador de la Política Nacional de IA son completamente ficticios. La explicación más probable de cómo sucedió esto, irónicamente, es que una herramienta de IA los generó por alucinación.

A principios de este mes, el Ministro de Comunicaciones y Tecnologías Digitales, Solly Malatsi, publicó el borrador de la política en la Gaceta Oficial para comentarios públicos. El documento indica que su propósito es establecer prioridades y normas nacionales para la IA, y reconocer las "dinámicas específicas de cada sector".

El borrador de la política propone la creación de una serie de nuevas instituciones para regular la IA. Esto incluye un Comité de Ética de la IA, un Instituto de Seguridad de la IA y un Fondo de Superventas de Seguros para la IA, responsable de compensar a las personas o entidades "perjudicadas por resultados derivados de la IA".

News24 revisó las 67 referencias citadas al final del borrador de la política. Varias de ellas citaban una revista académica inexistente o un artículo que no aparece en una revista reconocida.

Aquí hay cinco ejemplos:

Babatunde, O., & Mnguni, P. (2023). "Challenges and Opportunities in Regulating AI: Perspectives from South Africa." AI Policy Journal, 2(3), 143-156.

News24 no encontró evidencia de la existencia de la revista AI Policy Journal. No aparece ningún artículo académico con ese título en ninguna revista importante.

Burman, A., & Sewpersadh, K. (2022). "Legal Frameworks for AI in South Africa: Balancing Innovation and Accountability." Revista Sudafricana de Filosofía, 41(2), 207-217.

  • La Revista Sudafricana de Filosofía (SAJP) existe. Sin embargo, su editor jefe, Dominic Griffiths, declaró a News24 que «nuestra revista no ha publicado ningún artículo de ese tipo». Griffiths afirmó que nadie con el apellido «Burman» ha publicado jamás en la SAJP. «La referencia es sin duda una alucinación de la IA», declaró.

Karr, V., & Smith, L. (2023). «Derechos digitales y gobernanza de la IA en África». Revista de Derecho Africano, 67(1), 95-108.

  • La Revista de Derecho Africano existe, pero el artículo no aparece en el Volumen 67, Número 1. Un artículo con ese título tampoco parece aparecer en ninguna otra revista.

Cavaliere, F., McGregor, R., & Hersh, M. (2022). «Inteligencia Artificial y Ética en Economías Emergentes: El Caso de Sudáfrica». AI & Society, 37(4), 565-583.

  • Karamjit Gill, editor jefe de AI & Society, afirmó que «no puede localizar la publicación de este artículo» en la revista. News24 tampoco pudo encontrar el artículo en Google Académico.

Smith, M., & Mahomed, R. (2021). «El impacto de la IA en la justicia social en Sudáfrica». Revista de Ética y Filosofía Social, 18(3), 313-329.

Louise Simpson, editora jefe de la Revista de Ética y Filosofía Social (JESP), confirmó que el artículo no existe. «Puedo confirmar que la JESP no ha publicado ningún artículo con ese título ni con esa combinación de autores en ese ni en ningún otro número», declaró.

Algunas de las fuentes de la lista eran documentos presentados en el marco de una investigación gubernamental o no se presentaban como artículos de revistas académicas.

News24 no pudo verificar con certeza cuántas referencias de la lista eran ficticias, pero al menos seis eran inventadas.

El autor y historiador económico sudafricano de la Universidad de Stellenbosch, Johan Fourie, colaboró en la verificación de las referencias.

“Hice dos cosas: revisé personalmente tres citas. Yo también llegué a la conclusión de que no existen. Luego las probé con una herramienta de IA (https://citetrue.com/), que también concluyó que ninguna de las tres se encontraba en bases de datos académicas comunes”, dijo Fourie.

“En resumen, eran inventadas”.

News24 contactó al Departamento de Comunicaciones y Tecnologías Digitales para aclarar si había utilizado una herramienta de IA para redactar el texto o las citas del Borrador de la Política Nacional de IA, o ambos. También solicitamos al departamento que proporcionara pruebas de la existencia de los artículos de revistas.

El departamento indicó que estaba revisando la lista de referencias para garantizar su precisión, incluyendo cómo pudieron haber surgido las “pequeñas discrepancias en las referencias”.

El departamento también indicó que inició el proceso de elaboración del borrador de la política en 2024 y que el documento había pasado por numerosas revisiones. Afirmó que incorporó investigación, aportaciones de expertos y la colaboración con la industria.

El departamento afirmó que necesitaba tiempo para determinar el origen de las discrepancias, pero restó importancia a las mismas.

«Confirmamos que estas cuestiones técnicas de referencias no afectan el contenido, la integridad ni la orientación política del Borrador del Marco de Política Nacional de IA», declaró.

Irresponsabilidad

Anné Verhoef, directora del Centro de IA de la Universidad del Noroeste y profesora de filosofía, señaló que los textos generados por IA suelen incluir fuentes y referencias inventadas.

«Esto ocurre porque las aplicaciones de IA están programadas para proporcionar siempre una respuesta. Como herramientas de predicción basadas en grandes modelos lingüísticos, anticipan qué fuentes y citas harían que un texto pareciera creíble, autorizado y científico», explicó.

Verhoef afirmó que incluir fuentes ficticias en trabajos académicos y de investigación es «indicativo de un uso irresponsable de la IA».

«Casos como el Borrador de la Política Nacional de IA, que contiene citas y fuentes inexactas, creadas sin revelar la participación de la IA, reflejan un posible uso poco ético e irresponsable de la IA», concluyó Verhoef.

Fourie afirmó que las alucinaciones provocadas por el modelo de IA no eran sorprendentes, pero sí lo era la aparente falta de supervisión.

«Estas herramientas son poderosas. Empresas, académicos y gobiernos ya las utilizan. Sin embargo, su valor depende de una supervisión humana rigurosa.

«Las referencias falsificadas de este tipo sugieren que la herramienta no se utilizó con el debido cuidado. La consecuencia, lamentable pero comprensible, es que ahora las dudas se extenderán más allá del error en sí, afectando la credibilidad de todo el documento», añadió Fourie.

- Con Katharina Moser

Leer Más
Loading...
Las verdaderas manifestantes iraníes a las que Trump hizo parecer sintéticas

Incidente 1468: Según informes, se difundieron imágenes de mujeres manifestantes iraníes supuestamente mejoradas con inteligencia artificial, acompañadas de afirmaciones no verificadas sobre ejecuciones.

Traducido por IA
“Las verdaderas manifestantes iraníes a las que Trump hizo parecer sintéticas”
techpolicy.press2026-04-25

Mujeres iraníes que participan en protestas reales están detenidas en cárceles iraníes bajo amenaza de pena capital. Sus casos son ahora más difíciles de defender que hace una semana, ya que la credibilidad de la documentación de la que depende el trabajo en derechos humanos se está erosionando por personas que afirman defenderlas. Se utilizan herramientas de IA para retocar fotografías reales hasta que parecen manipuladas, y se presentan imágenes generadas completamente por IA como si fueran de personas reales, a menudo una al lado de la otra como si fueran lo mismo. La distinción entre ambas se está perdiendo, y las mujeres reales en cárceles reales se pierden entre el ruido.

Las ocho mujeres cuyas fotografías el presidente Donald Trump difundió en Truth Social esta semana son el ejemplo más reciente.

La mañana del 21 de abril, horas antes de que los negociadores estadounidenses e iraníes se reunieran en Islamabad, Trump publicó un collage de los rostros de ocho mujeres en Truth Social y se dirigió directamente a los líderes iraníes. «Agradecería enormemente la liberación de estas mujeres», escribió. «¡Por favor, no les hagan daño! ¡Sería un excelente comienzo para nuestras negociaciones!». La publicación incluía una captura de pantalla de una publicación de Eyal Yakoby, un activista estadounidense proisraelí de 23 años, en la que afirmaba que la República Islámica se preparaba para ahorcar a las mujeres que aparecían en la imagen. En cuestión de horas, la cuenta oficial de la Casa Blanca, @WhiteHouse, difundió el mensaje en X. La cuenta de Instagram del Departamento de Estado en persa, @usabehfarsi, lo tradujo y lo republicó para el público iraní con la marca del gobierno estadounidense.

Al final del día, el poder judicial iraní dio su respuesta. Declaró la publicación como «noticia falsa». «Algunas de las mujeres que supuestamente estaban al borde de la ejecución», decía el comunicado, «han sido liberadas, mientras que otras enfrentan cargos que, de confirmarse las condenas, a lo sumo resultarían en prisión».

A la izquierda, la publicación compartida por el presidente Trump; a la derecha, una publicación compartida por la cuenta de la Embajada de Irán en Sudáfrica.

Veinticuatro horas después, Trump publicó de nuevo: «¡Muy buenas noticias!». escribió, afirmando que las ocho mujeres ya no serían asesinadas. "Cuatro serán liberadas de inmediato y cuatro serán sentenciadas a un mes de prisión. Agradezco mucho que Irán y sus líderes hayan respetado mi solicitud, como Presidente de los Estados Unidos, y hayan cancelado la ejecución planeada". La cuenta de @WhiteHouse también amplificó esto. Las cifras específicas no provenían de ninguna organización de derechos humanos, ningún documento judicial ni ningún periodista. Hubo afirmaciones sobre una ejecución que el propio poder judicial de Irán dijo que no estaba programada. La estrategia de Trump sigue sin estar clara. Lo que sí se observa es que esta narrativa errónea fue promovida por el gobierno de los Estados Unidos con poca consideración por la verdad o el daño a las mujeres mencionadas en ella. No existe evidencia aparente de que alguien en la cadena que incluyó la declaración de Trump en el registro diplomático haya realizado algún trabajo de verificación periodística o de derechos humanos. Como informa Sarah Jeong en The Verge, este caso es una mezcla de hechos y ficción que da lugar a una distorsión confusa que alimenta una disputa interminable sobre supuestas violaciones reales de los derechos humanos.

Pero el sistema judicial iraní tampoco contaba toda la verdad. Al parecer, aceptó el regalo de Trump: una presentación flagrantemente inexacta que le permitía ocultar la realidad subyacente de los abusos del gobierno iraní y los crímenes contra los derechos humanos. Los nombres en el collage corresponden a presos políticos documentados, arrestados o desaparecidos desde las protestas de enero de 2026. Las fotografías eran reales. Se trataba de imágenes de mujeres reales, tomadas con cámaras reales. Lo que probablemente llevó a la IA a intervenir es que se trataba de imágenes visiblemente alteradas, con fondos negros estilizados, filtros de belleza y los artefactos de suavizado característicos del retoque con IA. Esto es "mejora con IA" o "edición con IA", una operación distinta de la generación con IA, que produce imágenes de personas inexistentes a partir de un texto sin sujeto subyacente.

La distinción entre mejora y generación es importante, porque determina si la fotografía tiene alguna relación con una vida verificable. Además, cada vez es más difícil hacer esta distinción en la práctica. El retoque o la edición con IA se integran cada vez más en el software de edición de fotos estándar que la mayoría de la gente usa a diario, lo que significa que cada vez más imágenes auténticas contienen algún rastro de IA. La categoría de "fotografía real mejorada con IA" ya no es exótica. Se está volviendo cada vez más común, y el trabajo analítico para distinguir la mejora de la generación se vuelve más difícil a la vez que más necesario.

Lo que realmente muestra la documentación

Lo que se puede verificar es que seis de las ocho mujeres son reales. Algunas de ellas corren grave peligro. Ninguno de sus casos coincide con la versión que Trump presentó.

Bita Hemmati es la única de los ocho con una sentencia de muerte confirmada. La Sala 26 del Tribunal Revolucionario de Teherán, presidida por la jueza Iman Afshari, la condenó a mediados de abril junto con su esposo y dos vecinos por el cargo de "acción operativa para el gobierno hostil de Estados Unidos y grupos hostiles". La agencia HRANA señaló que la fiscalía se basó en confesiones forzadas transmitidas por radio.

Mahboubeh Shabani, de 33 años, fue arrestada por agentes de inteligencia de Mashhad el 2 de febrero y, según informes, se encuentra recluida en el pabellón femenino de la prisión de Vakilabad. La organización noruega Hengaw Organization for Human Rights documentó su caso. Ha sido acusada (sin veredicto) de «moharebeh», enemistad contra Dios, un delito capital que podría conllevar la pena de muerte según la ley iraní, por usar su motocicleta para transportar a manifestantes heridos durante los disturbios del 8 y 9 de enero.

Diana Taherabadi tenía 15 años cuando fue sacada a la fuerza de su casa en Karaj, vestida solo con su pijama. Ella permanece en la sección juvenil de la prisión de Kachouei. Ghazal Ghalandari, de 16 años, fue detenido en una redada similar en Yasuj y trasladado a un lugar desconocido.

Venus Hossein-Nejad, una mujer bahá'í de 28 años, fue sacada de su lugar de trabajo en Kerman, obligada a confesar ante la prensa y se le negó la medicación para el trastorno bipolar durante su detención. Golnaz Naraghi, médica de urgencias de 37 años, fue arrestada en Teherán y trasladada a la prisión de Qarchak. Según Iran Human Rights in Oslo, tanto Hossein-Nejad como Naraghi fueron puestos en libertad bajo fianza.

Panah Movahedi, una kickboxer profesional de 24 años, desapareció durante las protestas en el barrio de Punak, en Teherán, el 9 de enero, según la organización Iran Human Rights, con sede en Oslo, que envió por correo electrónico un resumen verificado del caso al sitio web de verificación de datos Lead Stories el 22 de abril. Su familia no ha tenido noticias sobre su paradero desde entonces. Asimismo, Iran Human Rights confirmó que Ensieh Nejati fue arrestada en Darab, al sur de Irán, el 10 de enero. No se han publicado más novedades sobre su caso.

Lo que organizaciones de derechos humanos creíbles han documentado colectivamente es un aparato del régimen que ejecuta silenciosamente su represión mediante tribunales revolucionarios, centros de menores, confesiones forzadas televisadas y acusaciones arbitrarias que pueden equivaler a ejecuciones, contra mujeres cuyas historias reales son desgarradoras por sí mismas, sin imágenes manipuladas por IA ni versiones sensacionalistas.

El patrón

Esta no era la primera vez que Yakoby compartía material identificado como generado por IA relacionado con Irán. El 9 de abril, publicó una supuesta imagen de las consecuencias de la represión de enero. Shayan Sardarizadeh, de BBC Verify, la identificó como generada por IA en cuestión de horas. Sardarizadeh señaló que los letreros de las tiendas en persa al fondo carecían de sentido y que los cuerpos en primer plano presentaban errores anatómicos. Yakoby eliminó la publicación.

Esta dinámica no se limita a lo que la IA puede producir, sino que también aborda la duda que genera en torno a contenido completamente real. Dos días antes, el 7 de abril, había republicado imágenes auténticas de víctimas iraníes, imágenes que no requerían manipulación. Debajo, una respuesta decía: "Con la selección artificial de actores, la IA y la manipulación y fabricación de titulares que alcanzan una difusión artificial en las redes sociales, me he hecho cuestionarlo todo. Aquí nadie es inocente, y no quiero que los contribuyentes estadounidenses financien la OTAN ni que se involucren en Oriente Medio de ninguna manera".

Esa respuesta es la consecuencia lógica de esta dinámica. Ante un entorno informativo donde el contenido auténtico y el sintético coexisten indistinguiblemente, el público no aprende a diferenciarlos. Simplemente se retrae. El patrón que se observa aquí no es desinformación en el sentido convencional; los hechos subyacentes son reales. Es propaganda: casos reales presentados con material sintético, no verificado o instrumentalizado al servicio de una agenda política. El daño no reside en la falsedad. El daño radica en que los casos reales de derechos humanos, difundidos de esta manera, parecen fabricados.

Tres corrientes, un vacío

Ya he escrito anteriormente sobre cómo la existencia de contenido generado por IA permite que la documentación auténtica de la violencia estatal iraní o las protestas auténticas se desestimen como invenciones, y sobre cómo esa dinámica operó a escala bélica durante los ataques israelíes y estadounidenses a principios de este año. Tras el alto el fuego y la reconsolidación de la arquitectura informativa del régimen, ahora se observa un patrón más generalizado y peligroso. Se produce simultáneamente contenido sintético y no verificado sobre abusos contra los derechos humanos en Irán desde todas las direcciones, por actores con orientaciones políticas incompatibles, con el mismo resultado final.

El propio Estado iraní gestiona una cadena de propaganda industrial basada en IA, utilizada para inflar su capacidad militar durante la guerra, manipulando la documentación de tragedias reales para su propia propaganda y para presentar al mundo una voz única en nombre de 93 millones de iraníes durante el bloqueo de internet, apelando a discursos de opresión del Sur Global, sentimientos antibelicistas y occidentales de izquierda. Los medios de comunicación de la oposición y la diáspora han producido sus propias invenciones. Iran International compartió a principios de este año un vídeo generado por IA que supuestamente mostraba a prisioneros políticos siendo trasladados a una base de la IRGC para convertirlos en escudos humanos. El poder judicial iraní emitió entonces una declaración formal identificando el vídeo como una falsificación y utilizándolo para desestimar la categoría más amplia de documentación penitenciaria, o su notorio maltrato a prisioneros políticos en tiempos de guerra, como operaciones psicológicas enemigas. El vídeo fue retirado discretamente, pero el régimen ya se había aprovechado de la situación.

El régimen no solo está utilizando como arma las manipulaciones de IA de otros actores, sino que también ha comenzado a producir las suyas propias para burlarse de la dinámica. Horas después de que Trump proclamara su victoria, la Embajada de Irán en Sudáfrica, una cuenta oficial de la República Islámica, publicó una cuadrícula de ocho imágenes generadas por IA de mujeres iraníes con hiyab, con el siguiente mensaje: «Ocho chicas iraníes más serán ejecutadas mañana en Irán. Pidan ayuda a Trump. Gracias a chatgpt». La cuenta optó por la etiqueta de "generado por IA" de la plataforma. El régimen está replicando —o trolleando— lo que él mismo ha ayudado a crear. Se burlan de la dinámica que Trump acaba de demostrar, desmoronándola. El collage que compartió Trump fue mejorado con IA; la cuadrícula de la Embajada también fue generada por IA. La burla funciona porque la mayoría del público no puede, o no quiere, distinguir la diferencia, y la Embajada fomenta precisamente esa confusión: una categoría de evidencia tan degradada que cualquiera puede producir un collage de mujeres sintéticas y que el absurdo mismo se convierta en un comentario sobre la credibilidad de todo el historial de derechos humanos de Irán.

La cadena de amplificación que llevó el collage original al canal persa del Departamento de Estado representa una tercera corriente: actores propagandísticos que instrumentalizan casos reales de derechos humanos con un empaquetado no verificado o mejorado con IA, al servicio de una agenda de política exterior a la que las mujeres mencionadas en la publicación nunca aceptaron unirse. Cada uno afirma actuar en nombre del pueblo iraní. Cada uno contamina el registro probatorio. El régimen entonces utiliza el material sintético de todos los demás como arma para negarlo todo, que es precisamente lo que hizo el poder judicial iraní a las pocas horas de la publicación de Trump.

Bajo estas tres corrientes subyace un vacío que la República Islámica se ha esforzado metódicamente por mantener. En los días posteriores a las masacres ocurridas durante las protestas del 8 y 9 de enero, mis contactos en Irán me enviaron fotografías de charcos de sangre en las aceras de Shiraz, tomadas desde ángulos que solo captaban el suelo, ya que los fotógrafos no podían arriesgarse a ser vistos con un teléfono en la mano. Cuando se restableció brevemente la conectividad a finales de mes, hablé con una persona en Teherán que me contó que había visto a los equipos de limpieza de la ciudad lavar la sangre de las calles de su barrio. No tenía imágenes para compartir; la presencia de seguridad era demasiado fuerte como para arriesgarse. En las ciudades iraníes, guardias en los puestos de control registran teléfonos y arrestan a cualquiera cuyo carrete de fotos contuviera material de protesta. Este es el registro documental desde dentro de Irán en enero: discreto, parcial, peligroso y a menudo reprimido en la fuente. En ese vacío entran actores de todas las tendencias políticas con material que va desde auténtico pero instrumentalizado hasta mejorado con IA o completamente fabricado. Las mujeres cuyas vidas están en peligro desaparecen en el ruido que todos, régimen, oposición y activistas por igual, han contribuido a producir.

Lo que desaparece

Dos verdades pueden coexistir. Trump utiliza propaganda y no le importa la metodología rigurosa que exige la documentación sobre derechos humanos; amplificará con igual despreocupación las afirmaciones de ejecuciones no verificadas y las cifras infladas de víctimas. El Estado iraní cometió una masacre sin precedentes en enero, con HRANA confirmando más de 6700 muertes de manifestantes y menores, y otros 11 744 casos bajo investigación, y ahora está ejecutando a presos políticos al ritmo más alto en dos décadas, mientras mantiene a niñas de 16 años bajo amenaza de pena capital y obliga a mujeres bahá'ís a confesar en televisión crímenes que no cometieron. La primera verdad no atenúa la segunda. Lo que hace es corroer el registro del que depende la segunda.

La sentencia de muerte real de Bita Hemmati ahora está sepultada bajo un aluvión de afirmaciones no verificadas sobre otras siete mujeres. La familia de Diana Taherabadi espera un veredicto que no se les ha comunicado, mientras el mundo debate si su fotografía fue generada por IA. La confesión forzada de Venus Hossein-Nejad ya era una herramienta del régimen utilizada en su contra; su caso ahora se vuelve más precario. Toda la red de organizaciones que elaboran un registro fidedigno de lo que el Estado iraní realmente hace a sus ciudadanos ve cómo su trabajo se diluye entre el ruido generado por diversos actores con intereses políticos propios en el conflicto, pero con muy poco respeto por las vidas reales o la verdad.

Algunos de los mecanismos para una respuesta estructural ya existen. Las recomendaciones de la Junta de Supervisión a Meta exigen un nuevo estándar comunitario para el contenido generado por IA, un etiquetado coherente del material de IA durante las crisis y la implementación a gran escala de una infraestructura de procedencia de contenido. Meta tiene 60 días para responder, pero su historial en recomendaciones anteriores de la Junta sobre contenido de IA sugiere que las decisiones fuertes no se traducen automáticamente en acción. X ha ido más allá en el papel, anunciando en marzo que los creadores que publiquen videos de conflictos armados generados por IA sin revelarlo serían suspendidos del programa de reparto de ingresos de la plataforma. X ha declarado que se basará en una combinación de herramientas de detección propias, notas de la comunidad y señales de metadatos de IA. Sin embargo, no parece haber revelado la metodología técnica específica ni ha publicado datos sobre la frecuencia con la que se ha aplicado esta política.

Como ha señalado mi colega, Sam Gregory, director ejecutivo de WITNESS, no existe una solución mágica para esta crisis. Lo que se necesita, más que nunca, es un conjunto de señales de confianza por capas: procedencia de la IA integrada en el punto de creación, en lugar de depender de la detección posterior en el punto de difusión; marcos de transparencia, salvaguardias e interoperabilidad entre las empresas que producen tanto los modelos generativos como las plataformas de distribución donde se difunde el contenido; inversión sostenida en verificación de hechos, especialmente dentro de las plataformas y sus procesos de moderación de contenido, con los recursos necesarios para operar en situaciones de crisis, como conflictos donde el contenido de IA inunda el ecosistema informativo; moderación de contenido en plataformas que utilice mecanismos tanto humanos como técnicos para distinguir lo sintético de lo auténtico durante las crisis, en lugar de fusionarlos; y alfabetización mediática que capacite a las audiencias para comprender nuestro nuevo mundo de contenido de IA, alejándose de la dicotomía IA/no IA y aceptando la incertidumbre en lugar de caer en la incredulidad generalizada.

Actualmente, cada uno de estos aspectos está fallando o recibiendo una inversión insuficiente. Sin ellas, las personas cuyas historias más necesitan ser escuchadas se vuelven invisibles, y quienes afirman con más vehemencia hablar en su nombre son, intencionadamente o no, quienes las borran del mapa.

Leer Más
Loading...
Redes de perfiles falsos difundieron publicaciones de ITN en redes sociales en el período previo a las elecciones.

Incidente 1466: Una red de supuestos perfiles falsos de Facebook con imágenes supuestamente generadas por IA amplifica las publicaciones del partido búlgaro 'Existe un pueblo así' (ITN).

Traducido por IA
“Redes de perfiles falsos difundieron publicaciones de ITN en redes sociales en el período previo a las elecciones.”
factcheck.bg2026-04-24

La toma de posesión del gabinete interino encabezado por el primer ministro Andrey Gyurov ha intensificado la actividad de representantes del partido "Hay Gente Tal" (ITN) contra sus miembros. Mientras que el vicepresidente del partido, Toshko Yordanov, y el vicepresidente del grupo parlamentario, Stanislav Balabanov, atacan a los nuevos ministros principalmente desde la tribuna parlamentaria y ante los medios, la diputada Pavela Mitova, así como el líder del partido, Stanislav Trifonov, utilizan principalmente Facebook para difundir sus mensajes.

Ambas publicaciones han obtenido cientos de comparticiones y miles de reacciones, pero solo una pequeña parte de ellas son auténticas.

Un análisis de Factcheck.bg reveló que una red de aproximadamente 120 perfiles falsos de Facebook coordina la difusión de las publicaciones de Mitova y Trifonov. Los perfiles se crearon siguiendo un modelo similar y su actividad coincide en lo que respecta a la difusión de contenido de ITN.

El 20 de febrero, por ejemplo, Mitova publicó en su perfil una entrada afirmando que el ministro interino de Agricultura y Alimentación, Ivan Hristanov, había habilitado una sala especial para casos de "corrupción" y que allí había dado acceso a sus partidarios del partido "Edinenie" a "todos los documentos del Ministerio de Agricultura y Alimentación de los últimos cinco años", acceso al que no deberían tener por ley. Hristanov es uno de los ministros interinos que ha sido objeto de los ataques más feroces por parte de "There is such people" (Hay gente así).

Para el 10 de marzo, la publicación de Pavela Mitova se había compartido 336 veces, y la verificación de Factcheck.bg mostró que alrededor de 120 de estas comparticiones provenían de perfiles falsos. Estos perfiles se crearon siguiendo un modelo similar y cada uno de ellos había compartido las declaraciones en cuestión dos o más veces.

1 de 3

[![](https://factcheck.bg/wp-content/uploads/2026/04/Screenshot-2026-04-03-at-14.16.04.jpg [

De manera similar, una publicación de Trifonov del 4 de marzo, en la que exigía la renuncia de Hristanov y criticaba su ausencia en el parlamento para ser escuchado, fue compartida 379 veces, y casi la mitad de estas comparticiones provinieron de cuentas falsas.

Otra publicación de Trifonov del 11 de marzo, en la que criticaba «Continuamos el cambio: Bulgaria democrática», fue compartida más de 15 veces por la misma cuenta.

1 de 2

Hecho con Flourish - Crear un gráfico

  • Sus fotos de perfil, así como otras fotos que publican, se generan con inteligencia artificial. Esto se confirma mediante una verificación con la herramienta AIorNOT.

  • Tienen muy pocos o ningún amigo en Facebook.

  • Se indican varias ciudades de Bulgaria como lugares de residencia, y se ha añadido a la descripción del perfil información relacionada con la profesión. La mayoría de los perfiles se crearon a finales de 2025 o principios de 2026.

Los perfiles están asociados a direcciones de correo electrónico con el formato "digit@hotmail.com".

Su actividad principal consiste en republicar contenido de otros perfiles o páginas relacionadas con "There is such a people" y sus miembros. Las primeras publicaciones suelen tratar sobre la ciudad donde el perfil falso afirma vivir. Cada publicación posterior se relaciona exclusivamente con ITN.

Una característica de este grupo de perfiles falsos es que solo comparten publicaciones, pero no tienen ninguna otra actividad, como contenido propio, "me gusta" o comentarios.

Con la prohibición de la publicidad política en las redes sociales, la principal forma de llegar a los usuarios es la distribución orgánica, que depende principalmente de las reacciones que recibe una publicación. Un mayor número de reacciones, comentarios y comparticiones se traduce en una mayor difusión y ayuda al algoritmo de Facebook a reconocer las publicaciones como contenido de alta interacción.

Este es precisamente el caso de la publicación de Pavela Mitova del 20 de febrero. Fue compartida dos veces por el perfil falso Magdalena Kostova el 22 de febrero:

1 de 2

Este perfil se creó en diciembre. 26 de enero de 2025. Aunque falsa, la cuenta acepta solicitudes de amistad, lo que indica que su actividad no es completamente automatizada y que hay una persona real detrás que la gestiona.

Las primeras publicaciones de Magdalena Kostova están relacionadas con Sandanski, el Año Nuevo y la adopción del euro, además de varias fotos generadas por inteligencia artificial que supuestamente son suyas. Se trata de intentos de crear la impresión de un comportamiento online auténtico de un usuario real. Del 7 de enero al 30 de marzo, el perfil falso compartió el siguiente contenido:

  • 14 publicaciones de Pavela Mitova;

  • 50 en «Hay gente así»;

  • 12 publicaciones del perfil de Slavi Trifonov;

  • 1 publicación de un perfil con el nombre de Diana Damianova, que critica la oficina de Gyurov y llama a ITN «el guardián de los valores familiares»;

  • 1 publicación del perfil del diputado de ITN Alexander Rashev.

Otro perfil, el de Nikola Savov de Pernik, fue creado el 10 de enero de 2026. Tras su primera publicación, también comenzó a compartir contenido relacionado exclusivamente con ITN.

La foto de perfil tampoco corresponde a una persona real, sino que fue generada con inteligencia artificial. Otra similitud con el perfil de Magdalena Kostova es que Nikola Savov también compartió dos veces la publicación de Pavela Mitova del 20 de febrero. Otras publicaciones de ITN se compartieron dos veces en la red social.

1 de 8

![](https://factcheck.bg/wp-content/uploads/2026/04/Screenshot-2026-04-03-at-14.20.52.j pg)

[! ](https://factcheck.bg/wp-content/uploads/2026/04/Screenshot-2026-04-03-at-14.22.16.jpg)

Entre los perfiles falsos que se dedican a distribuir ITN En las publicaciones, también hay algunas con descripciones en ruso. Esto probablemente indica que el texto de dichas descripciones fue generado con inteligencia artificial.

Entre las publicaciones, también hay algunas con descripciones en ruso. Esto probablemente indica que el texto de dichas descripciones fue generado con inteligencia artificial. 1 de 2

Así, a través de un En una red de perfiles falsos con fotos falsificadas y sin publicaciones personales reales, la publicación de Pavela Mitova del 20 de febrero recibió al menos 120 comparticiones adicionales. El elevado número de reacciones y comparticiones la situó en la categoría de contenido de alta interacción en Facebook, lo que le otorgó una posición destacada y aumentó su visibilidad.

Esta misma red de perfiles también amplificó la difusión de publicaciones de otras cuentas y páginas asociadas a ITN durante la campaña para las elecciones parlamentarias anticipadas. La publicación de Stanislav Trifonov, por ejemplo, en la que criticaba al ministro de Agricultura en funciones, Ivan Hristanov, obtuvo más de 3000 "me gusta". Se compartieron 379 veces, de las cuales más de 100 provenían de cuentas falsas. La mayoría de los perfiles falsos de la red la compartieron dos veces. El perfil de Magdalena Kostova también se encontraba entre ellos.

1 de 2

«Habrá un pueblo así»

A principios de marzo, una nueva red de perfiles parcial o totalmente anónimos que utilizan la frase «Habrá un pueblo así» en su nombre —el eslogan de ITN en la actual campaña electoral— tiene como objetivo amplificar la distribución del contenido publicado por ITN para que los algoritmos de Meta lo reconozcan como altamente atractivo.

1 de 2

Estos 50 Algunos perfiles se presentan como activistas de ITN, pero en realidad no son auténticos. Las fotos de perfil que usan son generadas artificialmente o robadas de internet. Casi no hay actividad en los perfiles hasta febrero de 2026, cuando de repente comienzan a compartir contenido de diversas páginas y grupos de «Hay gente así» a diario.

Creado con Flourish - Crear un gráfico

Una comprobación con la herramienta PimEyes reveló que uno de los perfiles de la red —«There Will Be Such a People (Anelia Yordanova)»— utiliza una foto de la modelo de Victoria's Secret, Kelly Gale, como imagen de perfil.

1 de 3

Verificando Factcheck.bg con La herramienta PimEyes

La foto en cuestión aparece en varios sitios web, incluyendo algunos con contenido para adultos.

Otro perfil en la red utiliza una foto real. persona.

Una vez más, al verificar con la herramienta de reconocimiento facial PimEyes, se confirma que la foto pertenece a una persona real llamada Ivan Tomanović, investigador asociado del Departamento de Ingeniería Térmica y Energía del Instituto de Ciencias Nucleares "VINČA" de la Universidad de Belgrado. El equipo de Factcheck.bg intentó contactarlo, pero al momento de editar este texto, no se había recibido respuesta.

Y más fotos falsas Comportamiento

Desde el inicio de la campaña electoral, se ha observado otro tipo de actividad inusual en las publicaciones del líder de «Hay un Pueblo Tal», Slavi Trifonov. Su publicación del 12 de marzo, en la que critica al alcalde de Sofía, Vasil Terziev, ha recibido casi 5700 reacciones. De estas, unas 2000 son «me gusta», más de 600 son emoticonos de risa y cerca de 3000 son «corazón».

Una gran parte de los perfiles que reaccionan con un «corazón» en la publicación tienen nombres extranjeros, por ejemplo, italianos. La misma actividad inusual, con más de 900 reacciones («corazón»), se observa en las publicaciones de Trifonov del 28 de febrero, 1 de marzo, 4 de marzo, 5 de marzo, 6 de marzo y 11 de marzo.

1 de 3

Así son las reacciones compradas en redes sociales: un servicio ofrecido ilegalmente en internet por diversos intermediarios, a menudo con sede en países asiáticos. Por una pequeña tarifa, proporcionan reacciones en una publicación determinada, utilizando principalmente perfiles falsos creados específicamente para este fin.

Según las políticas de Meta, La empresa propietaria de Facebook considera que estas acciones se enmarcan dentro de lo que se denomina «comportamiento inauténtico coordinado» (https://transparency.meta.com/policies/community-standards/inauthentic-behavior/). Este comportamiento está sujeto a sanciones por parte de la plataforma, ya que su objetivo es engañar a Meta y a sus usuarios o eludir las sanciones impuestas por infringir las normas de la comunidad.

Estos compromisos de Facebook y otras redes sociales importantes se derivan del Acuerdo sobre Servicios Digitales de la UE. Act](https://www.eu-digital-services-act.com/Digital_Services_Act_Preamble_81_to_90.html#:~:text=their%20risk%20assessments.-,Providers%20of%20very%20large%20online%20platforms%20and%20very%20large,that%20contributes%20to%20disinformation%20campaigns.). El documento obliga explícitamente a las principales plataformas a tomar medidas contra el uso de sus servicios para la manipulación coordinada de la sociedad a través de perfiles falsos o bots, que pueden utilizarse para la rápida y masiva difusión de desinformación o contenido ilegal.

Leer Más
Loading...
La interrupción del servicio de robotaxis en China deja a los pasajeros varados en las carreteras.

Incidente 1460: El robotaxi Baidu Apollo Go quedó detenido en medio del tráfico durante un fallo del sistema en Wuhan, dejando a algunos pasajeros varados.

Traducido por IA
“La interrupción del servicio de robotaxis en China deja a los pasajeros varados en las carreteras.”
wired.com2026-04-19

Un problema técnico desconocido provocó que varios robotaxis propiedad del gigante tecnológico chino Baidu se detuvieran el martes en medio del tráfico, dejando a algunos pasajeros atrapados en los vehículos durante más de una hora.

En Wuhan, ciudad del centro de China donde Baidu ha desplegado cientos de sus taxis autónomos Apollo Go, usuarios de las redes sociales chinas informaron haber presenciado fallos de funcionamiento repentinos en los vehículos. Fotos y videos compartidos en línea muestran los autos de Baidu detenidos en autopistas concurridas, a menudo en el carril rápido.

Una estudiante universitaria en Wuhan le contó a WIRED que el martes estuvo atrapada en un robotaxi de Baidu con dos amigas durante aproximadamente 90 minutos. (Para proteger su privacidad, pidió ser identificada solo con su apellido, He). La estudiante dijo que el auto tuvo una falla y se detuvo cuatro o cinco veces durante el trayecto antes de finalmente estacionarse frente a una intersección en el este de Wuhan. Por suerte, no era una carretera con mucho tráfico y el grupo no corrió peligro inmediato. La pantalla del coche pedía a los pasajeros que permanecieran dentro con los cinturones de seguridad puestos y esperaran a que un representante de la compañía llegara "en cinco minutos", según una foto que compartió con WIRED.

Afirma que tardó unos 30 minutos en comunicarse con un representante de atención al cliente de Baidu por teléfono. "No dejaban de decir que lo reportarían a su superior. Pero no explicaron la causa [de la interrupción] ni nos dijeron cuánto tiempo debíamos esperar a que llegara el personal", comenta. Pero nadie llegó, y tras otra hora de espera, los tres pasajeros decidieron bajarse y volver a casa por su cuenta (las puertas no estaban cerradas con llave).

En las redes sociales chinas, otros pasajeros también se quejaron de no poder contactar con el servicio de atención al cliente de Baidu. "Intenté por todos los medios llamar para pedir ayuda usando las opciones que mostraba la aplicación, pero la línea no funcionaba, y cuando pulsé el botón SOS me indicó que no estaba disponible. Entonces, ¿para qué sirve exactamente el SOS?". Una persona escribió en una publicación en RedNote junto con un video que mostraba el botón sin funcionar. Dijo que tuvo que forzar la puerta para abrirla y salir del auto cuando el tráfico se detuvo por completo detrás de su robotaxi. "Apollo Go, de verdad me deben una disculpa", escribió.

Baidu no respondió de inmediato a la solicitud de comentarios. La policía local de Wuhan emitió un comunicado alrededor de la medianoche (hora de China) en el que afirmaba que la situación "probablemente fue causada por una falla del sistema", pero el incidente aún está bajo investigación. Nadie resultó herido y todos los pasajeros salieron de los vehículos, agregó la policía. Se desconoce cuántos robotaxis de Baidu podrían haberse visto afectados.

Una grabación de una cámara de tablero publicada en RedNote muestra un auto pasando junto a 16 vehículos Apollo Go estacionados en la carretera en un lapso de 90 minutos. En varias ocasiones, el video muestra al conductor evitando por poco chocar con el robotaxi frenando o cambiando de carril en el último momento.

Al parecer, otros no tuvieron tanta suerte. En otra publicación de RedNote, un hombre afirmó haber chocado contra uno de los vehículos de Baidu que presentaban fallas. El hombre escribió en la descripción que conducía a más de 64 km/h en una autopista cuando el auto que iba delante de él cambió de carril repentinamente para evitar el robotaxi detenido. No pudo reaccionar a tiempo y terminó chocando contra el auto autónomo. Las fotos del SUV naranja del hombre siendo remolcado muestran que el guardabarros delantero derecho quedó completamente arrancado y otras partes parecían haber sufrido daños importantes.

Según fotos y videos publicados en redes sociales chinas, hubo al menos otras dos colisiones el mismo día. Una usuaria de RedNote en Wuhan confirmó a WIRED que pasó junto a una furgoneta blanca que había sufrido una colisión por alcance con un robotaxi estacionado. La parte trasera del vehículo de Baidu quedó gravemente dañada, pero las dos personas que se encontraban junto al lugar parecían ilesas, según declaró. Añadió que calcula haber visto al menos una docena más de robotaxis estacionados.

Baidu es una de las empresas líderes en vehículos autónomos en China. La compañía ha lanzado servicios de robotaxi en más de una docena de ciudades chinas y recientemente comenzó su expansión internacional a lugares como Seúl, Abu Dabi y Dubái. En febrero, Baidu anunció que había completado 20 millones de viajes, cubriendo más de 300 millones de kilómetros (aproximadamente 186 millones de millas).

Wuhan ha sido una de las ciudades más proactivas en permitir la circulación de los vehículos totalmente autónomos de Baidu en vías públicas. Les permite operar en autopistas y realizar viajes al aeropuerto.

Leer Más
Loading...
Optometrista contraataca tras estafa con deepfake

Incidente 1455: Supuestos videos deepfake suplantaron la identidad del optometrista Joseph Allen para promocionar gotas para los ojos que revierten la miopía en TikTok.

Traducido por IA
“Optometrista contraataca tras estafa con deepfake”
visionmonday.com2026-04-18

Joseph Allen, OD, es muy conocido en el circuito de conferencias, en las redes sociales y por su canal de YouTube, Dr. Eye Health, donde educa a sus seguidores sobre diversos temas de salud ocular. Sin embargo, su notoriedad tuvo un lado negativo cuando descubrió videos en redes sociales que se parecían a él, tanto en apariencia como en voz, pero que difundían información falsa y vendían productos fraudulentos. El Dr. Allen fue víctima de una estafa con deepfakes de IA (https://www.aoa.org/news/clinical-eye-care/public-health/living-an-episode-of-black-mirror-ai-deepfakes-target-optometrist).

Los deepfakes y videos de baja calidad generados por IA están cada vez más dirigidos a médicos reales, suplantándolos para crear contenido fácil y automatizado que puede difundir información errónea y peligrosa sobre la salud. Los deepfakes son contenido manipulado o fabricado mediante IA que suplanta la identidad de una persona real con el fin de difundir información maliciosa o falsa.

Los vídeos de spam con IA son contenido de vídeo producido a gran escala mediante IA que explota los algoritmos de interacción de las redes sociales e inunda plataformas como YouTube, TikTok o Instagram, desplazando a los creadores de contenido original. El Dr. Allen señaló: «En algunos de estos vídeos, te dicen que no vayas a tu oftalmólogo y que toda nuestra profesión es una estafa».

Con asesoría legal, el Dr. Allen impugnó los deepfakes dirigidos a su canal, pero tardó un mes en contactar con TikTok, donde descubrió el vídeo falso, y otras tres semanas en demostrar que era el legítimo «Dr. Eye Health». Una cuenta fue eliminada de la plataforma, pero en dos o tres horas, los estafadores crearon una nueva cuenta y volvieron a subir todo el contenido anterior. En el caso del Dr. Allen, el producto que se vendía en la estafa eran gotas para los ojos para corregir la miopía. Se rastreó el origen de las gotas hasta una empresa china que vendía millones de dólares en productos en Amazon. El contenido de las gotas sigue siendo incierto.

El Dr. Allen recomienda buscar señales reveladoras de videos generados por IA, teniendo en cuenta que, a medida que la IA avanza, estas señales pueden volverse más sutiles o incluso corregirse. Analice detenidamente el contenido del video en busca de ediciones extrañas, como por ejemplo: ¿coinciden los labios del sujeto con la voz y el audio? ¿Parpadea demasiado o muy poco? Si se trata de la venta de un producto demasiado bueno para ser verdad, probablemente lo sea, así que asegúrese de observar y analizar cuidadosamente este tipo de contenido.

¿Se ve natural o no? Los deepfakes aún tienen dificultades para representar la iluminación natural y pueden hacer que el sujeto se vea poco natural debido a una discrepancia en las condiciones de iluminación o los reflejos. Investigadores del MIT ofrecen más señales, incluyendo pistas sobre los ojos y las cejas, el parpadeo y el brillo en las gafas. A medida que la IA difumina los límites entre la realidad y la ficción, la responsabilidad recae en el pensamiento crítico individual sobre el contenido de los medios de comunicación.

Leer Más
Enviar URL Rapidamente

Los enlaces enviados se agregan a una cola de revisión para que se resuelvan en un registro de incidente nuevo o existente. Los incidentes enviados con detalles completos se procesan antes que las URL que no poseen los detalles completos.
Acerca de la Base de Datos

La base de datos de incidentes de IA está dedicada a indexar el historial colectivo de daños o casi daños realizados en el mundo real por el despliegue de sistemas de inteligencia artificial. Al igual que bases de datos similares en aviación y seguridad informática, la base de datos de incidentes de IA tiene como objetivo aprender de la experiencia para que podamos prevenir o mitigar los malos resultados.

Estás invitado a enviar informes de incidentes, después de lo cual los envíos se indexarán y se harán visibles para el mundo. La inteligencia artificial solo será un beneficio para las personas y la sociedad si registramos colectivamente y aprendemos de sus fallas. (Más información)

post-image
Investigación de incidentes de IA para construir un futuro más seguro: el Instituto de Investigación de Seguridad Digital se asocia con Responsible AI Collaborative

By TheCollab Board of Directors

2024-02-20

El Instituto de Investigación de Seguridad Digital (DSRI) de los Institutos de Investigación de UL se está asociando con Responsible AI Coll...

Leer Más
La Base de Datos en la Prensa

Lea acerca de la base de datos en Time Magazine, Vice News, Venture Beat, Wired y Bulletin of the Atomic Scientists entre otros puntos de venta.

Arxiv LogoVenture Beat LogoWired LogoVice logoVice logo
Rankings de Reportadores de Incidentes

Estas son las personas y entidades acreditadas con la creación y presentación de informes de incidentes. Hay más detalles disponibles en la página de rankings.

Nuevos incidentes aportados
  • 🥇

    Daniel Atherton

    781
  • 🥈

    Anonymous

    157
  • 🥉

    Khoa Lam

    93
Reportes agregados a Incidentes Existentes
  • 🥇

    Daniel Atherton

    885
  • 🥈

    Anonymous

    243
  • 🥉

    Khoa Lam

    230
Informe total de contribuciones
  • 🥇

    Daniel Atherton

    3012
  • 🥈

    Anonymous

    934
  • 🥉

    Khoa Lam

    417
El Informe de Incidentes de IA
An envelope with a neural net diagram on its left

Create an account to subscribe to new incident notifications and other updates.

Incidentes Aleatorios
Loading...
Predictive Policing Biases of PredPol
Predictive Policing Biases of PredPol
Loading...
Aledo High School Student Allegedly Generates and Distributes Deepfake Nudes of Seven Female Classmates
Aledo High School Student Allegedly Generates and Distributes Deepfake Nudes of Seven Female Classmates
Loading...
ChatGPT Reportedly Introduces Errors in Critical Child Protection Court Report
ChatGPT Reportedly Introduces Errors in Critical Child Protection Court Report
Loading...
Child Sexual Abuse Material Taints Image Generators
Child Sexual Abuse Material Taints Image Generators
Loading...
ChatGPT Reportedly Produced False Court Case Law Presented by Legal Counsel in Court
ChatGPT Reportedly Produced False Court Case Law Presented by Legal Counsel in Court
El Colaborativo de IA Responsable

La base de datos de incidentes de IA es un proyecto de Responsible AI Collaborative, una organización autorizada para promover la base de datos de incidentes de IA. La gobernanza de la Colaborativa se estructura en torno a la participación en su programación de impacto. Para obtener más detalles, lo invitamos a leer el informe de fundación y obtener más información sobre nuestro and learn more on our.

View the Responsible AI Collaborative's Form 990 and tax-exempt application. We kindly request your financial support with a donation.

Patrocinador fundador de la organización
Patrocinador fundador de la base de datos
Patrocinadores y subvenciones
Patrocinadores similares

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2026 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • 01af10e