Bienvenido ala base de datos de incidentes de IA
Incidente 1325: Videos deepfake generados por IA que suplantan a Elon Musk y Dragon's Den, presuntamente utilizados en una estafa de inversión en criptomonedas dirigida a víctimas canadienses.
“Dos canadienses pierden 2,3 millones de dólares en una estafa de inversión en criptomonedas con inteligencia artificial deepfake”Último informe
Dos canadienses de Ontario y la Isla del Príncipe Eduardo perdieron un total de 2,3 millones de dólares en una estafa de inversión en criptomonedas deepfake impulsada por IA. La víctima de Ontario perdió 1,7 millones de dólares tras ser engañada con un vídeo falso de Elon Musk, mientras que la otra víctima perdió 600.000 dólares tras ver un vídeo falsamente vinculado a Dragon's Den. El informe se actualizó el 21 de diciembre de 2025.
Actualizado el 21 de diciembre de 2025 a las 12:31 p. m. UTC, el informe detalla que dos canadienses de Markham, Ontario, y la Isla del Príncipe Eduardo perdieron un total de 2,3 millones de dólares en una estafa de inversión en criptomonedas deepfake. Según W5, se utilizaron vídeos generados por IA y paneles de control falsificados para persuadir a las víctimas de que pequeños depósitos generaban beneficios reales.
Cómo las víctimas fueron atraídas por impostores de IA
Una mujer de 51 años de Markham vio un vídeo de Facebook en el que parecía aparecer Elon Musk hablando de una oportunidad en el mundo de las criptomonedas. Envió $250 inicialmente y, dos días después, le mostraron una ganancia de $30, lo que animó a realizar más depósitos y a confiar en documentos que parecían oficiales.
"Solicité casi un millón de dólares sobre el valor líquido de mi casa. Lo saqué y empecé a enviárselos. ¿Verdad? Unos $350,000 y luego $350,000." --- Víctima de Ontario, Markham
Posteriormente, los estafadores mostraron un saldo de $3 millones y le exigieron impuestos y comisiones antes de cualquier retiro. Para cubrir esos costos, pidió prestados $500,000 a familiares y amigos y agotó el límite de sus tarjetas de crédito, lo que elevó sus pérdidas totales a $1.7 millones.
Un hombre en la Isla del Príncipe Eduardo encontró un video que supuestamente contenía un enlace al programa de televisión Dragon's Den y sugería que las inversiones podían comenzar con $250. Aumentó sus transferencias con el tiempo, llegando a enviar $10,000 por día, y finalmente perdió $600,000. Al igual que en el primer caso, se mostró un saldo falso de más de un millón de dólares y se bloquearon los intentos de retiro.
En conjunto, sus pérdidas ascendieron a 2,3 millones de dólares. Según el Centro Canadiense Antifraude, los canadienses han perdido 1.200 millones de dólares en estafas de inversión en tres años, y la agencia cree que las pérdidas reales son mayores.
Informes de redes de fraude a escala industrial
La exfiscal estadounidense Erin West afirmó que el fraude está organizado como una industria y que muchas de las personas que llaman son víctimas, traficadas a complejos de estafa en el sudeste asiático y obligadas a trabajar largas jornadas. Quienes se niegan o intentan escapar se enfrentan a palizas o tortura, según su relato.
West describió haber visitado complejos de fraude cibernético en Filipinas y afirmó que su escala refleja operaciones a nivel industrial que se basan en la manipulación psicológica, la tecnología y la trata de personas. Advirtió que, a medida que las herramientas de deepfake se vuelven más baratas y accesibles, es probable que estafas similares se expandan globalmente, lo que dificulta que los inversores comunes distingan las oportunidades legítimas del fraude impulsado por IA.
Incidente 1326: Los robotaxis de Waymo presuntamente contribuyeron al bloqueo del tráfico durante el corte de energía de PG&E en San Francisco
“Waymo explica por qué los robotaxis se detuvieron durante el apagón de San Francisco”
Waymo reconoció el martes que sus vehículos autónomos contribuyeron a la congestión vehicular durante el apagón masivo del fin de semana en San Francisco. Afirmó que la magnitud de la interrupción sobrepasó partes de su sistema y motivó a la compañía a implementar cambios inmediatos en el software y la respuesta ante emergencias.
El apagón, causado por un incendio en una subestación de PG&E, dejó sin electricidad a casi un tercio de la ciudad el sábado, inutilizando cientos de semáforos y provocando congestiones en las principales vías. A medida que se desplegaban agentes de policía para controlar manualmente las intersecciones, la parada de los robotaxis de Waymo se convirtió en una de las señales más visibles de la interrupción en toda la ciudad, atrayendo la atención de residentes y funcionarios electos.
En una entrada de blog publicada el martes, Waymo afirmó que la cantidad sin precedentes de semáforos sin señalizar puso a prueba las medidas de seguridad diseñadas para interrupciones menores. Sus vehículos están programados para tratar los semáforos que no funcionan como paradas de cuatro vías, pero en algunos casos solicitan una "verificación de confirmación remota para garantizar que toman la decisión más segura".
"Si bien superamos con éxito más de 7000 semáforos sin señalizar el sábado, la interrupción generó un aumento concentrado de estas solicitudes", declaró la compañía, añadiendo que los retrasos en las confirmaciones contribuyeron a la congestión en calles ya saturadas.
Dado que el apagón persistía y el Departamento de Gestión de Emergencias de San Francisco instaba a los residentes a quedarse en casa, Waymo anunció la suspensión temporal del servicio y ordenó a los vehículos que se detuvieran y estacionaran para que pudieran regresar a las estaciones por etapas.
El alcalde Daniel Lurie afirmó que la ciudad estaba en contacto directo con la compañía, propiedad de Alphabet, la matriz de Google, a medida que las condiciones se deterioraban.
"Llamé al director ejecutivo de Waymo y les pedí que retiraran los vehículos de la circulación inmediatamente", declaró Lurie en una conferencia de prensa el lunes. "Fueron muy comprensivos... pero necesitamos que sean más proactivos".
El incidente ha generado nuevas preguntas sobre el rendimiento de los vehículos autónomos durante emergencias a gran escala. Los supervisores de San Francisco han solicitado una audiencia sobre la respuesta de Waymo, y un regulador de California declaró el lunes que está revisando los incidentes relacionados con robotaxis atascados durante el apagón.
Waymo afirmó que ya está implementando actualizaciones de software para toda la flota que brindan a los vehículos más contexto sobre fallas eléctricas regionales, lo que les permite transitar por las intersecciones con mayor decisión.
La compañía también indicó que está actualizando sus planes de preparación para emergencias, ampliando la coordinación con las autoridades municipales y continuando la capacitación del personal de primera respuesta, señalando que más de 25,000 socorristas en todo el mundo ya han recibido capacitación para interactuar con sus vehículos.
"Si bien la falla de la infraestructura de servicios públicos fue significativa, nos comprometemos a garantizar que nuestra tecnología se ajuste al flujo de tráfico durante este tipo de eventos", declaró un portavoz de Waymo. "Nos enfocamos en integrar rápidamente las lecciones aprendidas de este evento y nos comprometemos a ganar y mantener la confianza de las comunidades a las que servimos a diario".
Incidente 1333: Imágenes y videos supuestamente generados por IA difunden información errónea sobre la captura de Nicolás Maduro en X
“El contenido generado por IA se difunde tras la destitución de Maduro, difuminando la realidad de la ficción.”
Tras la operación militar estadounidense en Venezuela que condujo a la destitución de su líder, Nicolás Maduro, videos generados por IA que supuestamente muestran a ciudadanos venezolanos celebrando en las calles se han vuelto virales en redes sociales.
Estos videos de inteligencia artificial, que muestran multitudes celebrando, han acumulado millones de visualizaciones en plataformas como TikTok, Instagram y X.
Uno de los primeros y más compartidos videos en X fue publicado por la cuenta "Wall Street Apes", que cuenta con más de un millón de seguidores en la plataforma.
La publicación (https://x.com/WallStreetApes/status/2007586063876010289) muestra a varios ciudadanos venezolanos llorando de alegría y agradeciendo a Estados Unidos y al presidente Donald Trump por la destitución de Maduro.
El video ha sido marcado desde entonces por una nota comunitaria, una función de verificación de datos colaborativa en X que permite a los usuarios añadir contexto a las publicaciones que consideran engañosas. La nota decía: "Este video fue generado por IA y actualmente se presenta como una declaración fáctica con la intención de engañar a la gente".
El clip ha sido visto más de 5,6 millones de veces y compartido por al menos 38.000 cuentas, incluyendo la del magnate Elon Musk, antes de que finalmente lo eliminara.
La CNBC no pudo confirmar el origen del video, aunque verificadores de la BBC y la AFP afirmaron que la versión más antigua conocida del clip apareció en la cuenta de TikTok @curiousmindusa, que publica regularmente contenido generado por IA.
Incluso antes de que aparecieran estos videos, circulaban imágenes generadas por IA que mostraban a Maduro bajo custodia estadounidense, antes de que la administración Trump publicara una imagen auténtica del líder capturado.
El depuesto presidente venezolano fue capturado el 3 de enero de 2026, tras ataques aéreos y una incursión terrestre de las fuerzas estadounidenses, una operación que ha acaparado los titulares internacionales a principios de año.
Además de los videos generados por IA, el equipo de verificación de datos de AFP también detectó varios ejemplos de contenido engañoso sobre el derrocamiento de Maduro, incluyendo imágenes de celebraciones en Chile presentadas falsamente como escenas de Venezuela.
Trump también ha republicado varios videos relacionados con celebraciones venezolanas en Truth Social esta semana, aunque CNBC confirmó que muchos de ellos también se filmaron fuera de Venezuela, en ciudades como Ciudad de Panamá y Buenos Aires.
Uno de los videos compartidos por el presidente incluía imágenes antiguas que aparecieron en línea por primera vez en julio de 2024 y, por lo tanto, no estaban relacionadas con la reciente destitución de Maduro.
La difusión de este tipo de desinformación en torno a importantes acontecimientos noticiosos no es nueva. Contenido falso o engañoso similar se ha difundido durante los conflictos entre Israel y Palestina y Rusia y Ucrania.
Sin embargo, el alcance masivo del contenido generado por IA relacionado con los recientes acontecimientos en Venezuela es un claro ejemplo del creciente papel de la IA como herramienta para la desinformación.
Plataformas como Sora y Midjourney han facilitado más que nunca la generación rápida de videos hiperrealistas y su presentación como genuinos en medio del caos de los acontecimientos que se producen rápidamente. Los creadores de ese contenido a menudo buscan amplificar ciertas narrativas políticas o sembrar confusión entre el público global.
El año pasado, videos generados por IA de mujeres quejándose de la pérdida de sus beneficios del Programa de Asistencia Nutricional Suplementaria (SNAP) durante el cierre gubernamental también se hicieron virales. Uno de estos videos generados por IA engañó a Fox News, que lo presentó como real en un artículo que posteriormente fue eliminado.
Ante estas tendencias, las empresas de redes sociales se han enfrentado a una creciente presión para intensificar sus esfuerzos para etiquetar el contenido de IA potencialmente engañoso.
El año pasado, el gobierno de la India propuso una ley que exige dicho etiquetado, mientras que España aprobó multas de hasta 35 millones de euros para materiales de IA sin etiquetar.
Para abordar estas preocupaciones, las principales plataformas, como TikTok y Meta, han implementado herramientas de detección y etiquetado de IA, aunque los resultados parecen ser dispares.
CNBC pudo identificar algunos videos engañosos de TikTok sobre Venezuela que habían sido etiquetados como generados por IA, pero otros que parecían inventados o alterados digitalmente aún no tenían advertencias.
En el caso de X, la plataforma se ha basado principalmente en notas de la comunidad para etiquetar el contenido, aunque los críticos afirman que el sistema suele reaccionar con demasiada lentitud para evitar que la desinformación generada por IA se propague antes de ser identificada.
Adam Mosseri, quien supervisa Instagram y Threads, reconoció el desafío que enfrentan las redes sociales en una publicación reciente. "Todas las principales plataformas harán un buen trabajo identificando contenido de IA, pero empeorarán con el tiempo a medida que la IA mejore su capacidad para imitar la realidad", afirmó.
"Ya hay un número creciente de personas que creen, como yo, que será más práctico identificar a los medios de comunicación reales que a los falsos", añadió.
— Victoria Yeo de CNBC contribuyó a este informe
Incidente 1329: Grok supuestamente generó y distribuyó imágenes sexualizadas no consensuadas de adultos y menores en X Replies
“La inteligencia artificial Grok de Elon Musk genera imágenes de menores con ropa minimalista.”
El chatbot Grok de Elon Musk publicó el viernes que fallas en las medidas de seguridad lo llevaron a generar "imágenes que muestran a menores con ropa mínima" en la plataforma de redes sociales X. El chatbot, producto de xAI, la empresa de Musk, ha generado una oleada de imágenes sexualizadas durante toda la semana en respuesta a las solicitudes de los usuarios.
Capturas de pantalla compartidas por los usuarios en X mostraron que la pestaña de medios públicos de Grok estaba repleta de este tipo de imágenes. xAI afirmó estar trabajando para mejorar sus sistemas y prevenir futuros incidentes.
“Hay casos aislados en los que los usuarios solicitaron y recibieron imágenes de IA que mostraban a menores con ropa mínima”, declaró Grok en una publicación en X, respondiendo a un usuario. “xAI cuenta con medidas de seguridad, pero se están realizando mejoras para bloquear estas solicitudes por completo”.
“Como se mencionó, hemos identificado fallas en las medidas de seguridad y las estamos solucionando urgentemente: el abuso sexual infantil (CSAM) es ilegal y está prohibido”, publicó xAI en la cuenta @Grok en X, refiriéndose a material de abuso sexual infantil.
Muchos usuarios en X han incitado a Grok a generar versiones sexualizadas y no consensuadas de imágenes alteradas por IA en los últimos días, en algunos casos quitándoles la ropa a las personas sin su consentimiento. El jueves, Musk republicó una foto suya en bikini, capturada con IA, acompañada de emojis de risa y llanto, en un guiño a la tendencia.
La generación de imágenes sexualizadas de Grok parecía carecer de medidas de seguridad, lo que permitía que aparecieran menores en sus publicaciones, generalmente mujeres, con poca ropa, según las publicaciones del chatbot. En una respuesta a un usuario de X el jueves, Grok afirmó que la mayoría de los casos podrían prevenirse mediante filtros avanzados y monitorización, aunque afirmó que "ningún sistema es 100 % infalible", y añadió que xAI estaba priorizando las mejoras y revisando los detalles compartidos por los usuarios.
Al ser contactada por correo electrónico para solicitar comentarios, xAI respondió con el mensaje: "Mentiras de los medios tradicionales".
El problema del uso de IA para generar material de abuso sexual infantil es un problema de larga data en la industria de la inteligencia artificial. Un estudio de Stanford de 2023 descubrió que un conjunto de datos utilizado para entrenar varias herramientas populares de generación de imágenes de IA contenía más de 1000 imágenes de abuso sexual infantil. Según los expertos, entrenar a la IA con imágenes de abuso infantil puede permitir que los modelos generen nuevas imágenes de niños explotados.
Grok también tiene un historial de incumplimiento de sus medidas de seguridad y de publicación de desinformación. En mayo del año pasado, Grok comenzó a publicar sobre la conspiración de extrema derecha del "genocidio blanco" en Sudáfrica en publicaciones sin relación con el concepto. xAI también se disculpó en julio después de que Grok comenzara a publicar fantasías de violación y material antisemita, incluyendo autodenominarse "MechaHitler" y elogiar la ideología nazi. Sin embargo, la compañía consiguió un contrato de casi 200 millones de dólares con el Departamento de Defensa de EE. UU. una semana después de los incidentes.
Incidente 1327: Se reporta una estafa de romance deepfake generada por IA, supuestamente utilizada para robar un bitcoin a un inversor recientemente divorciado.
“Cómo una estafa romántica impulsada por IA agotó un fondo de jubilación de Bitcoin”
Conclusiones clave
-
Un inversor de Bitcoin recientemente divorciado perdió todo su fondo de jubilación, un Bitcoin completo, debido a una estafa romántica impulsada por IA, orquestada por un sofisticado delincuente que utiliza deepfakes.
-
Las estafas de matanza de cerdos son fraudes basados en relaciones que se basan en la manipulación emocional y deepfakes generados por IA para generar confianza antes de obtener el máximo beneficio económico de las víctimas.
-
El estafador utilizó IA para crear retratos sintéticos y realizar videollamadas deepfakes en tiempo real, haciendo que la relación inventada sea prácticamente indistinguible de la realidad.
-
Una vez que las criptomonedas se transfieren a través de una cadena de bloques, la recuperación es casi imposible. A diferencia de las transferencias bancarias, no hay devoluciones de cargos, reversiones ni protección al consumidor disponibles para las víctimas.
Cuando un inversor de Bitcoin recientemente divorciado finalmente alcanzó el hito de poseer un Bitcoin completo, creyó que su futuro financiero estaba asegurado. Sin embargo, en cuestión de días, un elaborado plan orquestado por un sofisticado estafador que utiliza IA le arrebató todos sus ahorros para la jubilación y lo dejó devastado.
Su historia, compartida por el asesor de seguridad de Bitcoin, Terence Michael, ofrece una lección crucial sobre cómo la manipulación emocional, combinada con las tecnologías modernas de IA, ha convertido las estafas tradicionales en armas para atacar a los titulares de criptomonedas.
Comprendiendo el marco del descuartizamiento de cerdos
Antes de examinar los detalles de este caso, es esencial comprender lo que los expertos en seguridad denominan estafas de "descuartizamiento de cerdos". A diferencia de los hackeos tradicionales de criptomonedas que atacan directamente a las billeteras, estos esquemas son fraudes relacionales que se basan completamente en la manipulación psicológica. El término, tomado de la práctica agrícola de engordar un animal antes del sacrificio, describe cómo los estafadores construyen gradualmente confianza y conexión emocional con sus víctimas antes de obtener el máximo valor.
La diferencia fundamental es crucial. Las víctimas envían voluntariamente sus fondos, creyendo que están haciendo inversiones sólidas o apoyando a un ser querido. Esta manipulación basada en el consentimiento dificulta enormemente la identificación de estos esquemas por parte de los sistemas de detección de fraude, ya que las transacciones en sí mismas parecen legítimas a primera vista.
Según un informe de Cyvers, una plataforma de seguridad blockchain, el periodo promedio de captación de víctimas dura entre una y dos semanas en aproximadamente un tercio de los casos, mientras que aproximadamente el 10% de las víctimas soportan periodos de captación que se extienden de uno a tres meses. Este prolongado plazo subraya la sofisticación de estas operaciones. Los estafadores entienden que la paciencia y la constancia generan credibilidad de forma mucho más efectiva que apresurarse.
Cómo se desarrolló la estafa: La ventaja de la IA
En este caso, el estafador empleó un enfoque sofisticado y complejo que aprovechaba la IA. La víctima fue contactada inicialmente a través de un mensaje no solicitado de alguien que decía ser una atractiva comerciante.
El estafador ofreció ayudar a duplicar las tenencias de Bitcoin del inversor, una promesa diseñada para apelar tanto a la codicia como al deseo de seguridad financiera, especialmente para alguien que estaba lidiando con un divorcio reciente.
Lo que hizo que este esquema fuera exponencialmente más poderoso que las estafas románticas tradicionales fue la integración de la tecnología de IA. En lugar de recurrir a fotos robadas o a una edición rudimentaria de imágenes, el estafador utilizó IA para generar retratos totalmente sintéticos que parecían convincentemente realistas. Estas identidades generadas por IA son prácticamente indistinguibles de las personas reales para el ojo inexperto.
Durante las videollamadas, el estafador empleó una tecnología aún más sofisticada. La generación de vídeos deepfake en vivo superpuso un rostro falso al cuerpo real del estafador en tiempo real. Los sistemas avanzados ahora pueden mantener la precisión de la sincronización labial en diferentes condiciones de iluminación, creando la ilusión de una conexión humana genuina tan convincente que incluso los espectadores más escépticos tienen dificultades para detectar el engaño.
La dimensión emocional es fundamental. El estafador profesó sentimientos románticos, habló de planes futuros y construyó una narrativa elaborada sobre una mujer que parecía preocuparse profundamente por el bienestar financiero del inversor. Incluso convenció a la víctima de comprar un billete de avión para conocerse en persona, lo que profundizó la inversión psicológica. Esta conexión personal resultó mucho más persuasiva que cualquier medida de seguridad técnica.
Vulnerabilidad y circunstancias vitales
El objetivo específico, una persona recién divorciada, no fue aleatorio. Fue una depredación calculada. El divorcio genera una vulnerabilidad aguda, que incluye aislamiento emocional, baja autoestima y un vacío psicológico que los estafadores están entrenados para explotar. Los estafadores reclutan activamente víctimas que encajan en perfiles específicos, como personas mayores, recién divorciadas, viudas, viudos y quienes expresan soledad en línea.
Este caso pone de relieve un punto ciego crítico en la prevención del fraude moderno. Los sistemas tradicionales de detección de fraude bancario están diseñados para detectar transacciones inusuales, no para reconocer la coerción psicológica. Las transferencias de Bitcoin de la víctima parecían completamente normales para los sistemas automatizados, consistentes en cantidades regulares a lo largo del tiempo en lugar de una única retirada grande. Esta escalada gradual está diseñada deliberadamente para eludir la detección algorítmica.
La magnitud del problema
En 2024, las estafas de matanza de cerdos costaron a las víctimas 5.500 millones de dólares en aproximadamente 200.000 casos individuales, con un promedio de 27.500 dólares por víctima, según Chainalysis. La empresa también ha clasificado estas estafas como un problema de seguridad nacional. Las pérdidas por estafas románticas superaron los 1.340 millones de dólares en 2024 y 2025. La Comisión Federal de Comercio (FTC) informó que el 40 % de las personas que buscan citas en línea han sido víctimas de estafas románticas.
La IA ha hecho que estos esquemas sean exponencialmente más escalables. A continuación, se enumeran varias maneras de protegerse de estas estafas:
-
Verificar la identidad a través de múltiples canales: Solicitar videollamadas en vivo en lugar de aceptar mensajes pregrabados. Buscar movimientos oculares anormales, parpadeos inconsistentes y bordes deformados en la unión de la cara y el cuello, indicadores comunes de deepfake.
-
Desconfiar de la rápida progresión de las relaciones: Las relaciones genuinas se desarrollan gradualmente. Las declaraciones de amor en cuestión de días, especialmente cuando se combinan con oportunidades de inversión, deberían despertar sospechas inmediatas.
-
Consultar con asesores de confianza antes de transferir fondos: Contactar con profesionales de seguridad o asesores financieros antes de transferir criptomonedas puede brindar una perspectiva racional cuando el juicio pueda verse comprometido.
-
Reconocer que los inversores legítimos no salen con clientes: Los asesores de inversión profesionales mantienen límites éticos claros. Cualquier persona que ofrezca tanto romance como oportunidades de inversión debe ser considerada una seria señal de alerta.
-
Comprender la irreversibilidad: Bitcoin y otras criptomonedas no ofrecen protección al consumidor, como devoluciones de cargos o reversiones. Una vez transferidos los fondos, la recuperación suele ser imposible.
Vigilancia ante la vulnerabilidad
La pérdida del inversor, un Bitcoin completo, representa no solo un revés financiero, sino un profundo trauma emocional que va mucho más allá de lo monetario. Más allá del devastador impacto financiero, enfrentó el shock psicológico de descubrir que la relación romántica era completamente inventada, la intimidad emocional falsa, los planes de futuro imaginarios y su confianza completamente violada por un delincuente que operaba en múltiples zonas horarias.
Su historia sirve como advertencia para los poseedores de criptomonedas. La seguridad técnica es solo una capa de protección. La vigilancia personal, el escepticismo ante el contacto no solicitado, la conciencia emocional y la consulta con asesores de confianza forman un perímetro de defensa igualmente crítico.
A medida que la IA sofistica el engaño, el juicio humano, informado y basado en un sano escepticismo, sigue siendo la protección más poderosa contra las estafas diseñadas para explotar las profundas necesidades humanas de conexión y seguridad. La lección no es desconfiar por completo de las relaciones en línea, sino reconocer que la convergencia del interés romántico y las oportunidades financieras exige una cautela extrema antes de realizar cualquier intercambio de fondos.
Enviar URL Rapidamente
Acerca de la Base de Datos
La base de datos de incidentes de IA está dedicada a indexar el historial colectivo de daños o casi daños realizados en el mundo real por el despliegue de sistemas de inteligencia artificial. Al igual que bases de datos similares en aviación y seguridad informática, la base de datos de incidentes de IA tiene como objetivo aprender de la experiencia para que podamos prevenir o mitigar los malos resultados.
Estás invitado a enviar informes de incidentes, después de lo cual los envíos se indexarán y se harán visibles para el mundo. La inteligencia artificial solo será un beneficio para las personas y la sociedad si registramos colectivamente y aprendemos de sus fallas. (Más información)

Investigación de incidentes de IA para construir un futuro más seguro: el Instituto de Investigación de Seguridad Digital se asocia con Responsible AI Collaborative
By TheCollab Board of Directors
2024-02-20
El Instituto de Investigación de Seguridad Digital (DSRI) de los Institutos de Investigación de UL se está asociando con Responsible AI Coll...
La Base de Datos en la Prensa
Lea acerca de la base de datos en PAI Blog, Vice News, Venture Beat, Wired y arXiv entre otros puntos de venta.
Rankings de Reportadores de Incidentes
Estas son las personas y entidades acreditadas con la creación y presentación de informes de incidentes. Hay más detalles disponibles en la página de rankings.
El Informe de Incidentes de IA

Create an account to subscribe to new incident notifications and other updates.
Incidentes Aleatorios
El Colaborativo de IA Responsable
La base de datos de incidentes de IA es un proyecto de Responsible AI Collaborative, una organización autorizada para promover la base de datos de incidentes de IA. La gobernanza de la Colaborativa se estructura en torno a la participación en su programación de impacto. Para obtener más detalles, lo invitamos a leer el informe de fundación y obtener más información sobre nuestro and learn more on our.

Vea el Formulario 990 de la Colaborativa de IA Responsable y la solicitud de exención de impuestos.
Patrocinador fundador de la organización
Patrocinador fundador de la base de datos







