Bienvenido ala base de datos de incidentes de IA
Incidente 1360: El director interino de CISA supuestamente subió documentos gubernamentales confidenciales a una instancia pública de ChatGPT
“El jefe cibernético interino de Trump subió archivos confidenciales a una versión pública de ChatGPT”Último informe
El director interino de la agencia de ciberdefensa del país subió documentos contractuales sensibles a una versión pública de ChatGPT el verano pasado, lo que activó múltiples advertencias de seguridad automatizadas destinadas a prevenir el robo o la divulgación involuntaria de material gubernamental de las redes federales, según cuatro funcionarios del Departamento de Seguridad Nacional con conocimiento del incidente.
El aparente error de Madhu Gottumukkala fue especialmente notable porque el director interino de la Agencia de Seguridad de Infraestructura y Ciberseguridad (CISA) había solicitado un permiso especial a la Oficina del Director de Información de la CISA para utilizar la popular herramienta de inteligencia artificial poco después de llegar a la agencia en mayo, según informaron tres de los funcionarios. La aplicación estaba bloqueada para otros empleados del DHS en ese momento.
Ninguno de los archivos que Gottumukkala ingresó a ChatGPT era clasificado, según los cuatro funcionarios, a quienes se les concedió el anonimato por temor a represalias. Sin embargo, el material incluía documentos contractuales de la CISA marcados como "solo para uso oficial", una designación gubernamental para información considerada sensible y no destinada a su divulgación pública.
Los sensores de ciberseguridad de CISA detectaron las cargas en agosto pasado, según los cuatro funcionarios. Un funcionario especificó que hubo múltiples advertencias de este tipo tan solo en la primera semana de agosto. Posteriormente, altos funcionarios del DHS llevaron a cabo una revisión interna para evaluar si las exposiciones habían perjudicado la seguridad del gobierno, según dos de los cuatro funcionarios.
No está claro qué concluyó la revisión.
En un comunicado enviado por correo electrónico, la directora de Asuntos Públicos de CISA, Marci McCarthy, afirmó que Gottumukkala "recibió permiso para usar ChatGPT con los controles del DHS implementados" y que "este uso fue a corto plazo y limitado". McCarthy añadió que la agencia estaba comprometida a "aprovechar la IA y otras tecnologías de vanguardia para impulsar la modernización del gobierno y cumplir" con la orden ejecutiva de Trump que elimina las barreras al liderazgo de Estados Unidos en IA. El correo electrónico también parecía cuestionar la cronología del informe de POLITICO: "El director interino, Dr. Madhu Gottumukkala, utilizó ChatGPT por última vez a mediados de julio de 2025, en virtud de una excepción temporal autorizada concedida a algunos empleados. La postura de seguridad de CISA sigue siendo bloquear el acceso a ChatGPT por defecto, salvo que se conceda una excepción".
Gottumukkala es actualmente el funcionario político de mayor rango de CISA, una agencia encargada de proteger las redes federales contra hackers sofisticados, respaldados por estados, de naciones adversarias, como Rusia y China.
Todo material subido a la versión pública de ChatGPT que Gottumukkala utilizaba se comparte con OpenAI, propietaria de ChatGPT, lo que significa que puede utilizarse para responder a las solicitudes de otros usuarios de la aplicación. OpenAI ha declarado que la aplicación tiene más de 700 millones de usuarios activos en total (https://openai.com/index/how-people-are-using-chatgpt/).
Otras herramientas de IA aprobadas para el uso de los empleados del DHS, como el chatbot DHSChat, desarrollado por el propio DHS y basado en IA, están configuradas para evitar que las consultas o los documentos ingresados en ellas salgan de las redes federales.
Gottumukkala "obligó a la CISA a que le otorgaran ChatGPT, y luego abusó de él", declaró el primer funcionario.
Todos los funcionarios federales reciben capacitación sobre el manejo adecuado de documentos confidenciales. Según la política del DHS, los funcionarios de seguridad también deben investigar la causa y el efecto de cualquier exposición de documentos de uso oficial y determinar la pertinencia de cualquier medida administrativa o disciplinaria. Según las circunstancias, estas podrían ir desde una recapacitación obligatoria o una advertencia formal hasta medidas más graves, como la suspensión o revocación de una autorización de seguridad, según explicó uno de los cuatro funcionarios.
Después de que el DHS detectara la actividad, Gottumukkala habló con altos funcionarios del DHS para revisar lo que había subido a ChatGPT, según dos de los cuatro funcionarios. El entonces asesor general interino del DHS, Joseph Mazzara, participó en la evaluación de posibles daños al departamento, según el primer funcionario. Antoine McCord, director de información del DHS, también participó, según un segundo funcionario.
Gottumukkala también se reunió en agosto con el director de información de CISA, Robert Costello, y su asesor principal, Spencer Fisher, sobre el incidente y el manejo adecuado del material de uso exclusivo para funcionarios, según las cuatro personas.
Mazzara y Costello no respondieron a las solicitudes de comentarios. No fue posible contactar con McCord ni Fisher para que hicieran declaraciones.
Gottumukkala ha dirigido la agencia de forma interina desde mayo, cuando fue nombrado subdirector por la secretaria del DHS, Kristi Noem. El candidato de Donald Trump para dirigir la CISA, el asesor especial del DHS Sean Plankey, fue bloqueado el año pasado por el senador Rick Scott (republicano por Florida) debido a un contrato de construcción naval con la Guardia Costera. Aún no se ha fijado una fecha para su nueva audiencia de confirmación.
La gestión de Gottumukkala al frente de la agencia no ha sido fluida, y este no sería su primer incidente relacionado con la seguridad.
Al menos seis funcionarios de carrera fueron suspendidos este verano después de que Gottumukkala no aprobara el examen de polígrafo de contrainteligencia que él mismo insistió en presentar, como informó POLITICO por primera vez. El DHS ha calificado el polígrafo como "no autorizado". Al preguntársele la semana pasada, durante su testimonio ante el Congreso, si estaba "al tanto" del fallo, Gottumukkala le dijo en dos ocasiones al representante Bennie Thompson (demócrata por Mississippi) que no aceptaba la premisa de esa caracterización. Y la semana pasada, Gottumukkala intentó destituir a Costello, el CIO de CISA, antes de que otros funcionarios políticos de la agencia intervinieran para bloquear la medida.
Incidente 1361: Un vehículo autónomo de Waymo atropelló a un niño cerca de una escuela primaria en Santa Mónica, California.
“Un Waymo atropelló a un niño cerca de una escuela primaria. La NHTSA está investigando.”
Waymo, propiedad de Alphabet, informó a la Administración Nacional de Seguridad del Tráfico en las Carreteras (NHTSA) que uno de sus vehículos autónomos atropelló a un niño cerca de una escuela primaria en Santa Mónica, California.
El incidente del 23 de enero está siendo investigado por la autoridad de seguridad vehicular de EE. UU.
Según los registros publicados en el sitio web de la NHTSA, el niño sufrió lesiones leves.
El accidente de Waymo ocurrió a dos cuadras de una escuela primaria durante el horario habitual de llegada de niños a la escuela, mientras otros niños, un guardia de cruce y varios vehículos estacionados en doble fila se encontraban cerca.
"El niño cruzó la calle corriendo desde detrás de una camioneta estacionada en doble fila hacia la escuela y fue impactado por el vehículo autónomo Waymo", declaró la NHTSA en un documento que describe el incidente, lo que requirió una "evaluación preliminar".
El vehículo funcionaba con el Sistema de Conducción Automatizada de 5.ª Generación de Waymo y no había ningún supervisor de seguridad a bordo.
La Oficina de Investigación de Defectos de la NHTSA planea evaluar si el vehículo autónomo Waymo actuó con la debida precaución, dada, entre otras cosas, su proximidad a la escuela primaria durante el horario de entrada y salida de los alumnos y la presencia de peatones jóvenes y otros posibles usuarios vulnerables de la vía pública.
La investigación de la agencia incluirá el análisis del comportamiento previsto de los vehículos autónomos de Waymo en zonas escolares y áreas aledañas, especialmente durante el horario habitual de entrada y salida de los alumnos, así como la respuesta de la compañía tras el impacto.
Nuestra tecnología detectó inmediatamente al individuo en cuanto empezó a salir de detrás del vehículo detenido. El conductor de Waymo frenó bruscamente, reduciendo la velocidad de aproximadamente 27 km/h a menos de 9.6 km/h antes de hacer contacto, declaró Waymo en un comunicado en su blog.
La compañía escribió que un conductor humano completamente atento en la misma situación probablemente habría hecho contacto con el peatón a una velocidad mayor, de 22.5 km/h.
Esta reducción significativa en la velocidad y la gravedad del impacto demuestra la importante ventaja del conductor de Waymo en términos de seguridad, afirmó la compañía.
Después de que el robotaxi atropellara al niño a baja velocidad, el peatón se levantó inmediatamente, caminó hacia la acera y llamamos al 911, explicó Waymo. La compañía también informó que su vehículo permaneció detenido, se hizo a un lado de la carretera y permaneció allí hasta que las autoridades lo autorizaron a abandonar el lugar.
Waymo estuvo involucrado en otro incidente el 25 de enero en Los Ángeles, donde uno de sus vehículos Zeekr aceleró en una calle residencial de un solo sentido cerca del Dodger Stadium. El vehículo chocó contra varios autos estacionados, incluyendo uno con una persona a bordo.
No se reportaron heridos, informó Waymo en una respuesta por correo electrónico.
El vehículo estaba siendo operado en modo manual por un especialista en el momento del incidente. Waymo no respondió a preguntas sobre cómo el vehículo terminó acelerando en el incidente.
Waymo ya se enfrenta al escrutinio regulatorio por el comportamiento de sus robotaxis cerca de los autobuses escolares.
La semana pasada, la Junta Nacional de Seguridad en el Transporte (NTSB) inició una investigación tras denuncias de que los robotaxis de Waymo rebasaban ilegalmente a autobuses escolares detenidos en varias ubicaciones.
En un comunicado publicado en X el 23 de enero, la NTSB declaró haber iniciado una investigación de seguridad para examinar la interacción entre los vehículos de Waymo y los autobuses escolares detenidos para subir y bajar estudiantes en Austin, Texas.
El Distrito Escolar Independiente de Austin identificó previamente al menos 19 incidentes en los que los vehículos de Waymo rebasaron a sus autobuses escolares y exigió que Waymo dejara de utilizar sus vehículos sin conductor durante el horario de autobuses escolares en Austin hasta que se resolvieran los problemas de seguridad.
La NHTSA había comenzado previamente a investigar el rendimiento del sistema Waymo ADS cerca de autobuses escolares detenidos y la capacidad del sistema para cumplir con las leyes de seguridad vial en relación con los autobuses escolares, según declaró la agencia en una carta enviada a Waymo.
Si bien tanto la NTSB como la NHTSA son organismos de control de la seguridad vehicular en el gobierno de EE. UU., sus funciones son distintas. La NTSB investiga accidentes para determinar las causas subyacentes de incidentes perjudiciales o preocupantes. La junta también formula recomendaciones de seguridad a los reguladores (incluida la NHTSA) y a la industria automotriz.
Incidente 1353: Según informes, la aplicación de reconocimiento facial de ICE, Fortify Mobile, identificó erróneamente a una mujer dos veces durante la aplicación de la ley migratoria en Oregón.
“La aplicación de reconocimiento facial de ICE identificó erróneamente a una mujer. Dos veces.”
Cuando las autoridades utilizaron la aplicación de reconocimiento facial del Servicio de Inmigración y Control de Aduanas (ICE) en una mujer detenida para intentar determinar su identidad y estatus migratorio, esta arrojó dos nombres diferentes e incorrectos, lo que plantea serias dudas sobre la precisión de la aplicación que el ICE utiliza para determinar quién debe ser expulsado de Estados Unidos, según el testimonio de un funcionario de Aduanas y Protección Fronteriza (CBP), obtenido por 404 Media.
El ICE ha informado a los legisladores que la aplicación, llamada Mobile Fortify, proporciona una determinación "definitiva" del estatus migratorio de una persona y que se debe confiar más en ella que en un certificado de nacimiento. El incidente, ocurrido el año pasado en Oregón, pone en duda esa afirmación. "ICE ha tratado Mobile Fortify como si fuera un sistema 100% preciso de recuperación de registros del estatus migratorio de toda la población estadounidense, cuando esto obviamente no es cierto, y nunca podría serlo desde una perspectiva técnica", declaró Cooper Quintin, investigador de seguridad y tecnólogo sénior de interés público de la Electronic Frontier Foundation, a 404 Media. "Es indignante que ICE esté utilizando esta aplicación defectuosa y una invasión inaceptable de la privacidad biométrica para supuestamente determinar si alguien es indocumentado y deportarlo o algo peor".
El incidente involucró a una mujer de 45 años, a quien los registros judiciales llaman MJMA. Fue detenida junto con más de 30 personas durante una redada en Woodburn después de que las autoridades rompieran la ventanilla del conductor de una camioneta y la sacaran del vehículo. MJMA está demandando a ICE y está siendo representada por abogados del Laboratorio de Derecho de Innovación (https://archive.is/o/kGwsc/https://innovationlawlab.org/news-and-analysis/dhss-operation-black-rose-early-analysis?ref=404media.co).
Oregon Live mencionó brevemente el escaneo facial en un informe de diciembre (https://archive.is/o/kGwsc/https://www.oregonlive.com/crime/2025/12/ice-officers-reveal-arrest-quotas-facial-recognition-use-in-oregon-dragnet.html?ref=404media.co). 404 Media ha obtenido el testimonio completo de la funcionaria de la CBP y ha subido una copia aquí.
La funcionaria de la CBP, llamada MK en la transcripción, dijo que intentaba determinar el estatus migratorio de la mujer. MJMA se negó a responder preguntas.
"Entonces, para usar otra herramienta que tenía para identificarla, saqué mi celular del gobierno del bolsillo. Tiene la pequeña consulta móvil de reconocimiento facial para la CBP. Tomé una foto [...] Intenté tomarle una foto a su rostro, y ella miró hacia abajo", dijo MK. Otra parte de la transcripción menciona específicamente a Mobile Fortify.
"Entonces recuerdo que le moví el hombro hacia atrás. Y se quejó porque olvidé que tenía esposas y [...] como a sus espaldas. Y gritó, como si le hubiera causado dolor, mucho dolor. Entonces me disculpé. Dije (en español), que es 'lo siento' (en español)", continuó.
MK dijo que le explicó a la mujer que necesitaba tomarle una foto. "Así que le tomé una foto, y ella me miró. Y luego, cuando miré mi m óvil, apareció una persona muy [...] parecida. No estaba segura de si era ella o no".
El primer nombre que arrojó la aplicación fue María, según el testimonio. "Coincidió con alguien [...] Recuerdo haber dicho: '¿María? ¿Es María?' Y entonces, en ese momento, había otros agentes de ICE a mi alrededor. Así que me decían 'María, María', para ver si respondía porque, una vez más, se negaba a hablar con nosotros, lo cual es su derecho.
Después de que MJMA no respondiera, ni verbalmente ni no verbalmente, con un cambio en su rostro, el funcionario de la CBP volvió a escanear su rostro. Esta vez, Mobile Fortify le dio un nombre diferente.
"Y luego intenté tomarle una foto de nuevo, y esta vez apareció otra persona. No recuerdo el nombre, pero también lo usamos: '¿Son ustedes esta persona?'. Nos miró. Recuerdo que frunció el ceño como diciendo: '¿De quién están hablando?'. Nos miró así", testificó MK.
MJMA tampoco respondió verbalmente, sino que frunció el ceño, según el testimonio. "Y entonces dijimos: 'Bueno, no sé. Es posible'", dijo el funcionario de la CBP.
Stephen Manning, director ejecutivo de Innovation Law Lab, declaró a 404 Media que los dos nombres que Mobile Fortify devolvió eran incorrectos.
"Que la aplicación devuelva nombres diferentes para la misma persona demuestra que no es fiable ni precisa, y no debería utilizarse en el terreno", declaró a 404 Media el miembro de mayor rango del Departamento de Seguridad Nacional, el representante Bennie G. Thompson.
Oregon Live informó que, tras el traslado de MJMA a un centro de detención de ICE en Tacoma, las autoridades la liberaron al día siguiente sin condiciones. Según Innovation Law Lab, ella está demandando para hacer valer sus derechos constitucionales. En su propio testimonio, MJMA afirmó que le fue emitida una visa B-2, una visa de turismo, y que entró a Estados Unidos con ella por última vez en enero pasado. Manning afirmó que MJMA está solicitando asilo. "Mi trabajo es asesorar a la gente sobre seguridad digital, y no puedo dar ningún consejo al respecto, porque no se puede cambiar el rostro, y si no se cede a sus exigencias, el ICE ha demostrado que está dispuesto a dispararle", añadió Quintin.
404 Media reveló por primera vez la existencia de Mobile Fortify en junio, basándose en correos electrónicos filtrados del ICE. Desde entonces, 404 Media ha obtenido una guía de usuario para la herramienta, que explica las bases de datos e imágenes que utiliza. demostró que tanto los funcionarios de ICE como de CBP están usando la aplicación en todo el país; y encontró que el Departamento de Seguridad Nacional (DHS) lanzó una versión de la aplicación para la policía local llamada Mobile Identify. Esa aplicación fue retirada de Google Play Store en diciembre.
Mobile Fortify utiliza sistemas de la CBP que se usan habitualmente para verificar a los viajeros al entrar en EE. UU., según el material filtrado. La aplicación restringió esta función a las calles estadounidenses. En colaboración con Reveal, *404 Media informó que la aplicación se ha utilizado contra ciudadanos estadounidenses.
404 Media obtuvo previamente un documento interno del DHS bajo la Ley de Libertad de Información, que demostraba que el ICE no permite que las personas se nieguen a ser escaneadas por Mobile Fortify.
La semana pasada, un grupo de legisladores demócratas presentó una legislación, redactada por el representante Thompson, que busca frenar Mobile Fortify. Esta legislación básicamente eliminaría la versión de la aplicación para las fuerzas del orden locales, restringiría su uso a los puntos de entrada a EE. UU. y obligaría al DHS a eliminar las imágenes de ciudadanos estadounidenses después de 12 horas.
El representante Thompson declaró previamente a 404 Media: «Los funcionarios del ICE nos han informado que una aparente coincidencia biométrica de Mobile Fortify constituye una determinación 'definitiva' del estatus migratorio de una persona y que un agente del ICE puede ignorar la evidencia de ciudadanía estadounidense, incluido un certificado de nacimiento, si la aplicación indica que la persona es extranjera».
La inexactitud de los sistemas de reconocimiento facial ha sido una preocupación desde hace tiempo, y los errores han provocado la detención o acusación de delitos de personas inocentes. Cuando las herramientas de reconocimiento facial cometen errores, a menudo son contra personas de color (https://archive.is/o/kGwsc/https://www.nytimes.com/2025/08/26/nyregion/nypd-facial-recognition-dismissed-case.html).
"Durante más de una década, los investigadores han demostrado que el reconocimiento facial es una tecnología defectuosa que funciona especialmente mal con mujeres de color. Usarlo para determinar el estatus de una persona fomenta identificaciones erróneas y falsos positivos", declaró Chris Gilliard, investigador de privacidad, a 404 Media. "El uso deliberado de una tecnología tan propensa a errores sugiere que la apariencia de un proceso es más importante que la precisión o la imparcialidad".
"Esta es la extensión lógica de un panorama que promueve el reconocimiento facial como una herramienta para fines aparentemente inofensivos, como los autoservicios de comida rápida o el desbloqueo de teléfonos", añadió.
La CBP confirmó una solicitud de comentarios, pero no respondió a tiempo para su publicación.
En otro testimonio, esta vez de un oficial de deportación de ICE llamado DR en los registros judiciales, el juez preguntó: "¿Cuál es la tasa de identificación con Mobile Fortify?".
DR respondió: "No puedo hablar de esa cifra".
Incidente 1357: La Casa Blanca comparte una foto de arresto supuestamente alterada por inteligencia artificial que muestra a la manifestante de Minnesota Nekima Levy Armstrong llorando.
“La Casa Blanca publica una foto alterada que muestra a un manifestante arrestado en Minnesota llorando”
La Casa Blanca publicó una imagen alterada digitalmente que muestra a una manifestante que interrumpió un servicio religioso en Minnesota el fin de semana pasado llorando al ser arrestada el jueves. Una versión anterior de la imagen, también publicada por una cuenta oficial del gobierno, la mostraba mirando hacia adelante con calma.
Al ser preguntada sobre su publicación, la Casa Blanca mencionó un mensaje en X de Kaelan Dorr, subdirector de comunicaciones, quien escribió: "La aplicación de la ley continuará. Los memes continuarán". El Departamento de Justicia anunció el jueves por la mañana que había detenido a la manifestante Nekima Levy Armstrong, abogada, acusándola de ayudar a interrumpir un servicio religioso en St. Paul, Minnesota, el domingo. Los manifestantes se habían reunido el domingo para protestar por la aparente conexión de un pastor con el Servicio de Inmigración y Control de Aduanas (ICE). Menos de una hora después de que la Fiscal General Pam Bondi anunciara el arresto el jueves en X, la Secretaria de Seguridad Nacional, Kristi Noem, publicó una imagen del arresto en la misma red social. En la imagen de Noem, la Sra. Levy Armstrong aparece serena, caminando frente a un agente del orden cuyo rostro está difuminado. Karoline Leavitt, secretaria de prensa de la Casa Blanca, compartió la publicación de Noem. Aproximadamente media hora después de que la Sra. Noem enviara su mensaje, la Casa Blanca publicó su propia versión de la imagen del arresto, en la que la Sra. Levy Armstrong parece sollozar. Su piel parece estar oscurecida. El agente que la arrestó en la imagen de la Sra. Noem está exactamente en la misma posición.
El New York Times procesó la imagen utilizada por la Sra. Noem, así como la publicada por la Casa Blanca, a través de Resemble.AI, un sistema de detección de IA. Concluyó que la imagen de la Sra. Noem era real, pero que la versión de la Casa Blanca mostraba signos de manipulación en el rostro de la Sra. Levy Armstrong. El Times logró crear imágenes casi idénticas a la versión de la Casa Blanca preguntando a Gemini y Grok (IA generativa). Herramientas de Google y la startup xAI de Elon Musk para alterar la imagen original de la Sra. Noem.
El presidente Trump y su círculo son distribuidores entusiastas de contenido generado por IA (https://www.nytimes.com/interactive/2025/10/21/business/media/trump-ai-truth-social-no-kings.html?smid=nytcore-ios-share), y han compartido docenas de imágenes sintéticas en los últimos años. A menudo, las imágenes son obviamente artificiales, incluyendo publicaciones del último año (https://www.nytimes.com/2025/11/20/technology/trump-ai-memes.html?smid=nytcore-ios-share) que muestran al Sr. Trump como un rey y como un piloto de combate arrojando excrementos a los manifestantes.
La fotografía manipulada podría obstaculizar el incipiente proceso judicial contra la Sra. Levy Armstrong por parte del Departamento de Justicia.
A medida que avance el caso, sus abogados podrían usarla para acusar a la administración Trump de realizar lo que se conoce como declaraciones extrajudiciales indebidas. La mayoría de los tribunales federales prohíben a los fiscales hacer comentarios sobre documentos judiciales o procedimientos legales extrajudiciales que puedan perjudicar al jurado que finalmente conozca del caso.
Los abogados de la Sra. Levy Armstrong también podrían alegar que la foto era evidencia de que el Departamento de Justicia le tenía cierta animadversión y presentó los cargos con fines vengativos. Una moción de ese tipo podría, en teoría, resultar en la desestimación de los cargos algún día.
Incidente 1358: Imágenes supuestamente alteradas por IA distorsionan la evidencia tras el tiroteo en Minneapolis de la enfermera de cuidados intensivos Alex Pretti
“Publicaciones falsas e imágenes alteradas distorsionan la visión del tiroteo en Minnesota”
En redes sociales, influencers pro-Trump y otros falsearon las pruebas del asesinato de una enfermera en Minneapolis el sábado con publicaciones que incluían información engañosa y contenido inventado.
Si bien videos verificados y testigos mostraron cómo agentes federales de inmigración derribaron y dispararon a Alex Pretti, de 37 años, las publicaciones intentaron distorsionar los hechos, incluso apoyando las afirmaciones de la administración Trump de que el Sr. Pretti fue responsable de su propia muerte. Algunas publicaciones lo difamaron o lo retrataron como un activista radical.
Nick Sortor, un influencer pro-Trump con 1,4 millones de seguidores en X, identificó erróneamente al Sr. Pretti, ciudadano estadounidense, como inmigrante no autorizado. Jack Posobiec, un leal a Trump con 3,3 millones de seguidores en X, describió falsamente al Sr. Pretti como alguien que "se enfrentó a la policía" y sacó un arma; afirmaciones que otros usuarios de X corrigieron en una nota adjunta. Fotos de diferentes hombres, vestidos de drag o sin camisa en un festival callejero, fueron identificadas erróneamente como el Sr. Pretti y difundidas ampliamente.
El Sr. Posobiec, el Sr. Sortor y la Casa Blanca no respondieron de inmediato a las solicitudes de comentarios.
La caótica escena fue grabada en video desde varios ángulos; sin embargo, esas imágenes borrosas generaron debate en línea, donde fueron rápidamente interpretadas y analizadas.
Imágenes autenticadas muestran al Sr. Pretti, quien no tenía antecedentes penales conocidos y tenía permiso para portar un arma de fuego oculta, interponiéndose frente a una mujer que estaba siendo rociada con gas pimienta por un agente antes de ser inmovilizado. Un agente le quitó la pistola al Sr. Pretti, que no había sacado, y luego otro le disparó repetidamente por la espalda. Testigos corroboraron los detalles en los videos.
La intensa actividad en línea se hizo eco de las narrativas políticas más amplias que surgieron tras el tiroteo. Altos funcionarios de la administración Trump han presentado repetidamente acusaciones sin fundamento de terrorismo doméstico contra el Sr. Pretti, quien fue inmovilizado y desarmado cuando los agentes abrieron fuego.
Algunos relatos conservadores contradijeron la narrativa de la administración Trump. En respuesta a la sugerencia de la administración Trump de que el Sr. Pretti quería "masacrar" a las fuerzas del orden, Tim Pool, un podcaster de derecha, escribió en X que el Sr. Pretti "claramente no tenía la intención de masacrar al ICE".
Aun así, muchos usuarios de redes sociales repitieron la descripción de los hechos de la administración Trump. Otros publicaron imágenes de la escena manipuladas engañosamente con inteligencia artificial.
Una imagen, por ejemplo, fue editada para mostrar al Sr. Pretti apuntando con un arma a un agente, aunque en realidad sostenía un teléfono. Otra fue alterada con Gemini, la herramienta de inteligencia artificial de Google, supuestamente para mejorarla y enfocarla, revelando detalles clave de la escena. La imagen alterada incluía errores obvios, como cambios en el rostro del Sr. Pretti. También se eliminó un arma de la mano del agente, lo que generó más debate en redes sociales sobre lo sucedido.
Enviar URL Rapidamente
Acerca de la Base de Datos
La base de datos de incidentes de IA está dedicada a indexar el historial colectivo de daños o casi daños realizados en el mundo real por el despliegue de sistemas de inteligencia artificial. Al igual que bases de datos similares en aviación y seguridad informática, la base de datos de incidentes de IA tiene como objetivo aprender de la experiencia para que podamos prevenir o mitigar los malos resultados.
Estás invitado a enviar informes de incidentes, después de lo cual los envíos se indexarán y se harán visibles para el mundo. La inteligencia artificial solo será un beneficio para las personas y la sociedad si registramos colectivamente y aprendemos de sus fallas. (Más información)

Investigación de incidentes de IA para construir un futuro más seguro: el Instituto de Investigación de Seguridad Digital se asocia con Responsible AI Collaborative
By TheCollab Board of Directors
2024-02-20
El Instituto de Investigación de Seguridad Digital (DSRI) de los Institutos de Investigación de UL se está asociando con Responsible AI Coll...
La Base de Datos en la Prensa
Lea acerca de la base de datos en Time Magazine, Vice News, Venture Beat, Wired y Bulletin of the Atomic Scientists entre otros puntos de venta.
Rankings de Reportadores de Incidentes
Estas son las personas y entidades acreditadas con la creación y presentación de informes de incidentes. Hay más detalles disponibles en la página de rankings.
El Informe de Incidentes de IA

Create an account to subscribe to new incident notifications and other updates.
Incidentes Aleatorios
El Colaborativo de IA Responsable
La base de datos de incidentes de IA es un proyecto de Responsible AI Collaborative, una organización autorizada para promover la base de datos de incidentes de IA. La gobernanza de la Colaborativa se estructura en torno a la participación en su programación de impacto. Para obtener más detalles, lo invitamos a leer el informe de fundación y obtener más información sobre nuestro and learn more on our.

Vea el Formulario 990 de la Colaborativa de IA Responsable y la solicitud de exención de impuestos.
Patrocinador fundador de la organización
Patrocinador fundador de la base de datos





