Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 5097

Loading...
La red de inteligencia artificial
dissentmagazine.org · 2025

*Este artículo se publicó en colaboración con The Intercept. * Rita Murad, ciudadana palestina de Israel de veintiún años y estudiante del Instituto Tecnológico Technion de Israel, fue arrestada por las autoridades israelíes en noviembre de 2023 tras compartir tres historias de Instagram la mañana del 7 de octubre. Las imágenes incluían una de una excavadora atravesando la valla fronteriza en Gaza y una cita: "¿Apoya la descolonización como una teoría académica abstracta? ¿O como un hecho tangible?". Fue suspendida de la universidad y enfrentaba hasta cinco años de prisión. En los últimos años, las autoridades de seguridad israelíes se han jactado de un arsenal "similar a ChatGPT" utilizado para monitorear a los usuarios de redes sociales por apoyar o incitar al terrorismo. Se difundió con fuerza tras el sangriento ataque de Hamás el 7 de octubre. Activistas y políticos de derecha ordenaron a las fuerzas policiales que arrestaran a cientos de palestinos en Israel y Jerusalén Este por delitos relacionados con las redes sociales. Muchos habían participado en discursos políticos de bajo nivel, como publicar versículos del Corán en WhatsApp o compartir imágenes de Gaza en sus historias de Instagram. Cuando el New York Times cubrió la saga de Murad el año pasado, el periodista Jesse Baron escribió que, en Estados Unidos, «Ciertamente no hay forma de acusar a nadie de un delito por su reacción a un ataque terrorista. En Israel, la situación es completamente diferente». Pronto, esto podría cambiar. Cientos de estudiantes con diversos estatus legales han sido amenazados con la deportación por motivos similares en Estados Unidos este año. Casos recientes de alto perfil se han centrado en quienes participan en la disidencia estudiantil contra las políticas del ejército israelí en Gaza. Está Mahmoud Khalil, un titular de una tarjeta verde casado con una ciudadana estadounidense, sacado de su residencia de la Universidad de Columbia y enviado a un centro de detención en Luisiana. Está Rümeysa Öztürk, una estudiante de doctorado turca de Tufts, desaparecida de las calles de Somerville, Massachusetts, por agentes vestidos de civil supuestamente por coescribir un artículo de opinión pedir a los administradores de la universidad que atiendan las demandas de los manifestantes estudiantiles. Y está Mohsen Mahdawi, estudiante de filosofía de la Universidad de Columbia, arrestado por agentes del ICE frente a la oficina del Servicio de Ciudadanía e Inmigración de Estados Unidos (USCIS), donde tenía programada su entrevista de naturalización. En algunos casos, el Departamento de Estado ha recurrido a informantes, listas negras y tecnología tan simple como una captura de pantalla. Pero Estados Unidos está activando un conjunto de herramientas de vigilancia algorítmica que las autoridades israelíes también han utilizado para monitorear y criminalizar la libertad de expresión en línea. En marzo, el secretario de Estado, Marco Rubio, anunció que el Departamento de Estado lanzaría una iniciativa de "Captura y Revocación" impulsada por IA para acelerar la cancelación de visas de estudiantes. Los algoritmos recopilarían datos de perfiles de redes sociales, medios de comunicación y sitios de doxing para hacer cumplir la orden ejecutiva del 20 de enero [https://www.whitehouse.gov/presidential-actions/2025/01/protecting-the-united-states-from-foreign-terrorists-and-othernational-security-and-public-safety-threats/] dirigida a los extranjeros que amenazan con "derrocar o reemplazar la cultura en la que se basa nuestra República constitucional". Este arsenal se desarrolló en colaboración con empresas tecnológicas estadounidenses durante las últimas dos décadas y ya se ha implementado, en parte, en el sistema de inmigración estadounidense. La iniciativa de Rubio, "Captura y Revoca", surge de colaboraciones de larga data entre empresas tecnológicas y gobiernos cada vez más derechistas, ávidos de sus productos. El modelo de negocio de la industria de la IA se basa en el acceso sin restricciones a una gran cantidad de datos, lo que crea contextos poco democráticos, donde la vigilancia estatal no está sujeta a la supervisión judicial, legislativa o pública, como campos de prueba particularmente lucrativos para nuevos productos. Los efectos de estas tecnologías han sido más punitivos en las fronteras de Estados Unidos o la Unión Europea, como en los centros de detención de migrantes de Texas o Grecia. Pero ahora ocurre lo inevitable: se están volviendo herramientas populares de vigilancia interna. Israel fue uno de los primeros lugares de prueba. A medida que las autoridades israelíes ampliaban sus poderes de vigilancia para frenar el creciente terrorismo palestino a principios de la década de 2010, las empresas tecnológicas estadounidenses acudieron en masa a la región. A cambio de sistemas de vigilancia digitales, primero, y luego automatizados, el aparato de seguridad israelí ofreció a los directores ejecutivos abundantes tesoros del bien más preciado de la economía de la información: los datos. IBM y Microsoft proporcionaron software para monitorear los cruces fronterizos de Cisjordania. Palantir ofreció algoritmos de vigilancia predictiva a las fuerzas de seguridad israelíes. Amazon y Google cedieron la infraestructura de computación en la nube y los sistemas de inteligencia artificial. El resultado fue una red de vigilancia y control policial que podía involucrar a personas inocentes junto con quienes representaban amenazas creíbles para la seguridad. Las coaliciones gobernantes de derecha permitieron cada vez menos restricciones. Con el tiempo y en colaboración con muchas de las mismas empresas, el estado de seguridad estadounidense desarrolló sus propias capacidades de vigilancia a gran escala. * * * * * No hace mucho, Silicon Valley predicaba un mantra de globalización e integración. Era antitético a la agenda nacionalista de la extrema derecha, pero beneficiaba a los negocios en una economía que dependía de la mano de obra extranjera, tanto cualificada como no cualificada. Por eso, cuando Trump firmó una orden ejecutiva que prohibía la inmigración de cinco países musulmanes y sometía a quienes obtenían visas aprobadas a controles adicionales en enero de 2017, los ejecutivos tecnológicos y sus empleados discreparon. El cofundador de Google, Sergey Brin, inmigrante de la Unión Soviética, se unió a las manifestaciones en el aeropuerto de San Francisco para protestar contra la prohibición de viajes de Trump. Mark Zuckerberg citó a sus abuelos, refugiados judíos de Polonia, como argumento para oponerse a la política. Sam Altman también instó a los líderes de la industria a posicionarse. «El precedente de invalidar visas y tarjetas de residencia ya emitidas debería ser extremadamente preocupante para los inmigrantes de cualquier país», escribió en su blog personal. Debemos oponernos, o nuestra inacción enviará el mensaje de que la administración puede seguir quitándonos nuestros derechos. Muchos trabajadores tecnológicos pasaron la primera presidencia de Trump protestando contra estas consecuencias más siniestras de una economía basada en datos. Durante el año siguiente, empleados de Microsoft, Google y Amazon organizaron huelgas y circularon peticiones exigiendo el fin de los contratos con el estado de seguridad nacional. La presión dio lugar a campañas de restauración de imágenes. Google retiró una oferta por un contrato de 10 millones de dólares con el Departamento de Defensa. Microsoft prometió que su software y servicios no se utilizarían para separar familias en la frontera. Pero la supuesta resistencia tecnológica desmentía una verdad incómoda. Empresas de Silicon Valley suministraron el software y la infraestructura informática que posibilitaron las políticas de Trump. Empresas como Babel y Palantir firmaron contratos con ICE en 2015, convirtiéndose en el sustento de la vigilancia de ICE. Capacidades extrayendo datos personales de miles de fuentes para las autoridades gubernamentales, convirtiéndolos en bases de datos con capacidad de búsqueda y mapeando las conexiones entre individuos y organizaciones. Para 2017, conglomerados como Amazon, Microsoft y Google también se estaban volviendo esenciales, cediendo los servicios en la nube para alojar grandes cantidades de información personal de ciudadanos y residentes. Aunque algunas empresas se comprometieron a evitar contratos con el estado de seguridad estadounidense, continuaron trabajando en el extranjero, especialmente en Israel y Palestina. El periodismo de investigación del último año ha sacado a la luz intercambios más recientes. Los acuerdos entre empresas estadounidenses y el ejército israelí se intensificaron después del 7 de octubre, según documentos filtrados de Google y Microsoft. Las agencias de inteligencia dependían de Microsoft Azure y Amazon Web Services para alojar datos de vigilancia y utilizaban Gemini de Google y ChatGPT de OpenAI para analizar y poner en funcionamiento gran parte de ellos, a menudo desempeñando un papel directo en operaciones —desde redadas de arresto hasta ataques aéreos— en toda la región. Estos contratos brindaron a los conglomerados tecnológicos estadounidenses la oportunidad de perfeccionar sus sistemas militares y de seguridad nacional en el extranjero hasta que la reelección de Trump indicó que podían hacerlo con escasa resistencia interna. OpenAI modificó sus términos de uso el año pasado para permitir que los ejércitos y las fuerzas de seguridad desplegaran sus sistemas con fines de seguridad nacional. Google hizo lo mismo en febrero, eliminando de su política de valores públicos la cláusula que indicaba que no usaría su IA para armas y vigilancia. Meta también anunció que los contratistas estadounidenses podrían usar sus modelos de IA con fines de "seguridad nacional". Las empresas tecnológicas se han comprometido a producir productos de alto riesgo a un ritmo acelerado. Por eso, los expertos en privacidad afirman que sus productos pueden impulsar el estado de vigilancia estadounidense en un momento en que las protecciones constitucionales se están erosionando. "Esto dará al gobierno la impresión de que vale la pena implementar ciertas formas de vigilancia cuando antes habrían requerido demasiados recursos", comentó Ben Wizner, director del Proyecto de Discurso, Privacidad y Tecnología de la ACLU, por teléfono la semana pasada. "Ahora que se tienen grandes modelos lingüísticos, el gobierno podría decir por qué no almacenar miles de horas de conversaciones solo para analizarlas con una herramienta de inteligencia artificial y decidir a quién no se quiere en el país". Todo está listo. Según informes recientes, Palantir está desarrollando para el ICE un "sistema operativo de inmigración" que puede generar informes sobre inmigrantes y titulares de visas (incluyendo su apariencia, dónde viven y adónde viajan) y monitorear su ubicación en tiempo real. ICE usará la base de datos combinada con una serie de otras herramientas de inteligencia artificial para vigilar las cuentas de redes sociales de los inmigrantes, y para rastrear y detener a "antisemitas" y "terroristas", según un anuncio reciente del Departamento de Estado. "Necesitamos mejorar nuestro trato con esto como un negocio", dijo el director interino del ICE, Todd Lyons, en un discurso en la Expo de Seguridad Fronteriza 2025 en Phoenix a principios de este mes. "Como Amazon Prime, pero con seres humanos". Es importante recordar que muchas de las tecnologías patentadas que las empresas privadas ofrecen al estado de vigilancia estadounidense son defectuosas. Los algoritmos de moderación de contenido implementados por Meta suelen marcar contenido inocuo como incendiario, especialmente publicaciones en árabe. Los amplios modelos lingüísticos de OpenAI son conocidos por generar declaraciones alucinatorias y traducir incorrectamente frases de idiomas extranjeros al inglés. Abundan las historias de errores en redadas y arrestos recientes, desde funcionarios del ICE que confundieron a Mahmoud Khalil con un titular de visa de estudiante hasta ciudadanos, residentes legales y turistas sin antecedentes penales que fueron detenidos y deportados a El Salvador. Pero donde la IA falla técnicamente, funciona ideológicamente. Vemos esto en Israel y Palestina, así como en otros contextos marcados por una vigilancia gubernamental relativamente descontrolada. Los algoritmos adoptados por las fuerzas de seguridad israelíes siguen siendo rudimentarios. Sin embargo, los funcionarios los han utilizado para justificar políticas cada vez más draconianas. La organización de derechos humanos Adalah, con sede en Haifa, afirma que cientos de palestinos sin antecedentes penales ni afiliación a grupos militantes están encarcelados porque activistas y políticos de derecha ordenaron a la policía que revisaran sus teléfonos y páginas de redes sociales y etiquetaran lo que decían, compartían o les gustaba en línea como "incitación al terrorismo" o "apoyo al terrorismo". Ahora escuchamos historias similares en ciudades estadounidenses, donde las protecciones de la Primera Enmienda y el debido proceso se están desintegrando. Los efectos fueron bien destilados por Ranjani Srinivasan, una estudiante india de doctorado en Columbia que se autodeportó después de que agentes del ICE se presentaran en su puerta y cancelaran su estatus legal. Desde su refugio en Canadá, declaró al New York Times que temía la expansión del arsenal algorítmico de Estados Unidos. "Temo que incluso el discurso político más discreto, o simplemente hacer lo que todos hacemos —como gritar al abismo de las redes sociales—, pueda convertirse en esta pesadilla distópica", declaró Srinivasan (https://www.nytimes.com/2025/03/15/nyregion/columbia-student-kristi-noem-video.html), "donde alguien te llama simpatizante del terrorismo y te hace, literalmente, temer por tu vida y tu seguridad". Es aterrador pensar que todo esto ocurrió en los primeros 100 días de Trump en el cargo. Pero los directores ejecutivos de empresas llevan años trabajando con los ejércitos y las agencias de seguridad para consolidar este statu quo. El visible coste humano de estos intercambios puede generar la oposición necesaria para evitar más represión. Pero por ahora, se han sentado las bases para que el estado de vigilancia estadounidense finalmente opere a gran escala.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd