Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 6927

Loading...
OpenAI abre la puerta al espionaje gubernamental
theatlantic.com · 2026

El lunes, frente a la sede de OpenAI, un puñado de personas se reunió con tizas de colores. Se arrodillaron y empezaron a escribir mensajes en la acera. «Defendamos la libertad. Por favor, no a la vigilancia masiva legal. Por favor, cambien el contrato».

El tema en cuestión era un acuerdo comercial que la empresa firmó recientemente con el Departamento de Defensa, tras el repentino giro del Pentágono contra Anthropic (https://www.theatlantic.com/technology/2026/03/inside-anthropics-killer-robot-dispute-with-the-pentagon/686200/). OpenAI suministrará ahora su tecnología al ejército para su uso en entornos clasificados, como los que pueden implicar decisiones en tiempos de guerra y recopilación de inteligencia; un acuerdo, según me comentaron muchos expertos legales, que podría otorgar al gobierno amplios poderes. "Me encantaría ver a OpenAI actuar correctamente y defender cualquier cosa", me dijo Niki Dupuis, fundadora de una startup de IA y una de las manifestantes con tiza.

En un memorando interno ampliamente filtrado que Sam Altman envió el jueves por la noche, del cual obtuve una copia, el director ejecutivo de OpenAI afirmó que buscaría "líneas rojas" para impedir que el Pentágono utilizara los productos de OpenAI para la vigilancia doméstica masiva y el uso de armas letales autónomas. Aparentemente, estos eran los mismos límites que Anthropic había exigido y que enfurecieron al Pentágono, lo que llevó al secretario de Defensa, Pete Hegseth, a declarar a la empresa un riesgo para la cadena de suministro: una sanción severa que obligaría a cualquiera que venda al Pentágono a dejar de utilizar los productos de Anthropic en su colaboración con el ejército. Quizás OpenAI estaba a punto de conseguir las mismas condiciones que se le habían negado a Anthropic.

Pero una lectura atenta del contrato —al menos las partes que OpenAI ha compartido con el público— indica que, de hecho, los límites son difusos. Varios expertos legales independientes me indicaron que, legalmente, el Pentágono probablemente pueda usar la tecnología de OpenAI —versiones de los modelos que sustentan ChatGPT— para la vigilancia masiva de estadounidenses. Además, es probable que el ejército tenga una vía para usar la tecnología de OpenAI en armas autónomas. Los modelos de IA de Anthropic, anterior socio del Departamento de Defensa, probablemente ya se hayan utilizado en guerra; recientemente, se informó que sus productos se usaron para identificar objetivos en Irán (https://www.washingtonpost.com/technology/2026/03/04/anthropic-ai-iran-campaign/) (Anthropic declinó hacer comentarios sobre esa información). Sin embargo, la compañía se había negado a permitir que su tecnología se utilizara en armas totalmente autónomas.

El Departamento de Defensa, al que la administración Trump se refiere como el Departamento de Guerra, declinó responder a mis preguntas sobre el contrato. Una portavoz de OpenAI me reiteró que el Pentágono ha acordado no utilizar el sistema de IA de la empresa para la vigilancia doméstica, pero no respondió a preguntas específicas. (OpenAI tiene una alianza corporativa con el equipo de negocios de The Atlantic).

"El público se encuentra en una situación incómoda: tenemos que elegir entre confiar o no en OpenAI", me dijo Charlie Bullock, investigador principal del centro de estudios Institute for Law & AI. Brad Carson, quien se desempeñó como asesor general y posteriormente subsecretario del Ejército durante la presidencia de Barack Obama, fue menos concesionario: en su análisis de los acontecimientos de la semana pasada, OpenAI parece estar "de acuerdo con el uso de ChatGPT para lo que la gente común considera vigilancia masiva". * * * * *

Durante la última semana, aproximadamente, Altman y OpenAI han hecho varios anuncios sobre el contrato, incluyendo compartir parte del texto en una entrada de blog el sábado pasado, solo para modificarlo en una actualización del blog unos días después. El mensaje de la compañía ha sido confuso y, en varios puntos, ha parecido contradecir sus propias declaraciones previas, así como la información del gobierno.

OpenAI había afirmado que tiene límites en ciertas aplicaciones de su tecnología, pero la parte del texto del contrato que publicó inicialmente implica lo contrario. La empresa también había sugerido que imponía restricciones únicas sobre cómo el gobierno podía usar los modelos de OpenAI, pero Jeremy Lewin, un alto funcionario del Departamento de Estado, sugirió lo contrario, escribiendo que el contrato simplemente permitía "todo uso legal" del sistema OpenAI, es decir, cualquier uso técnicamente legal. El mensaje "en el mejor de los casos, los hace parecer que no están completamente al tanto de esto, y en el peor, refuerza la percepción, justa o no, de que OpenAI tiende a no ser muy sincero", me dijo Alan Rozenshtein, profesor de derecho en la Universidad de Minnesota que estudia tecnologías emergentes. Rozenshtein quizás estaba siendo diplomático: la pregunta central sobre OpenAI durante los últimos años ha sido menos sobre la franqueza y más sobre la honestidad. Cuando Altman fue despedido brevemente a finales de 2023, había sido acusado de engañar a la junta directiva de la organización sin fines de lucro de OpenAI. Una revisión externa (https://openai.com/index/review-completed-altman-brockman-to-continue-to-lead-openai/) encargada por OpenAI concluyó posteriormente que se había producido una ruptura de confianza entre Altman y la junta directiva, pero que la conducta de Altman no exigía su destitución.

La semana pasada ha sido caótica, y los observadores han estado pendientes de cada novedad. El viernes pasado, Altman publicó en X que OpenAI había llegado a un acuerdo con el Departamento de Defensa (DOD) pocas horas después de que se supiera que la relación de Anthropic con la administración se disolvería. El contrato de OpenAI, escribió Altman, contiene prohibiciones sobre la vigilancia masiva nacional y la responsabilidad humana por el uso de la fuerza, incluyendo los sistemas de armas autónomas. Sin embargo, muchos se mostraron escépticos. OpenAI sin duda había ofrecido algo al Pentágono que Anthropic no le ofreció. La palabra prohibiciones no parecía comunicar una prohibición total de la vigilancia, y la idea de que se asumiera la "responsabilidad humana" por las armas autónomas sugería que, de hecho, la tecnología de OpenAI podría utilizarse en armas autónomas si una persona fuera responsable de la decisión.

En la entrada de blog del sábado, OpenAI insistió en que sus límites contra la vigilancia nacional y las armas automatizadas eran firmes, y reformuló el acuerdo como un intento de "desescalar la tensión" entre el Pentágono y otros laboratorios de IA estadounidenses, añadiendo que esperaba que el Pentágono ofreciera las mismas condiciones a otras empresas, incluida Anthropic. OpenAI también publicó una cita del contrato, aunque ofrecía pocas garantías. El segmento comienza así: "El Departamento de Guerra puede utilizar el Sistema de IA para todos los fines legales, de conformidad con la legislación aplicable". A continuación, se indica que el uso de los sistemas OpenAI para actividades de inteligencia "cumplirá" con diversas leyes y políticas que regulan la actividad de inteligencia estadounidense y que han permitido, de forma infame, el espionaje a ciudadanos estadounidenses, como la Ley de Inteligencia y Vigilancia Extranjera de 1978. Bajo la FISA y políticas relacionadas, por ejemplo, las agencias de inteligencia pueden grabar y almacenar llamadas telefónicas entre estadounidenses y personas en el extranjero, así como adquirir datos masivos de usuarios de empresas y analizarlos, lo que no implica interceptar directamente las comunicaciones.

Aquí debo señalar que es imposible utilizar solo fragmentos de un contrato para evaluarlo en su totalidad: una restricción en una sección puede anularse en las circunstancias enumeradas en otra. Pero fragmentos son todo lo que OpenAI ha proporcionado. Según lo que hemos podido ver, los expertos me indicaron que probablemente se había dado margen para la vigilancia masiva. "Hay muchísimas cosas que la gente común entendería como vigilancia masiva automatizada que simplemente no son ilegales", afirmó Rozenshtein. Por ejemplo, la IA generativa podría convertir registros previamente abrumadores y opacos (declaraciones de impuestos, archivos federales de empleo, miles de millones de comunicaciones interceptadas, datos de ubicación de teléfonos inteligentes, etc.) en un tesoro de información precisa. Un portavoz de OpenAI me comentó que citar estatutos específicos en el contrato no modifica la prohibición acordada contra la vigilancia nacional.

En cuanto a las armas, el texto del contrato compartido el sábado pasado cita la Directiva 3000.09 del Departamento de Defensa, que no prohíbe el uso de armas totalmente autónomas. De hecho, proporciona una vía legal para desarrollar y desplegar dichas armas al detallar cómo deben ser examinadas y utilizadas. En resumen, si una aplicación está técnicamente permitida por la legislación estadounidense, OpenAI probablemente tendría que aceptarla. Y, por supuesto, la administración Trump ha abogado por algunas interpretaciones muy amplias de la ley. "Me pareció que el lenguaje contractual original que compartió OpenAI básicamente estipulaba 'todo uso legal'", dijo Bullock.


Después de que OpenAI publicara su entrada en el blog, Altman y algunos de sus empleados comenzaron a responder preguntas sobre X. ¿Permitía el contrato a la NSA utilizar los productos de OpenAI? El director de asociaciones de seguridad nacional de OpenAI insistió en que la respuesta era no.* ¿Qué hay de todas las lagunas legales para la vigilancia en las leyes existentes? ¿Qué hay del uso de IA para analizar datos masivos, obtenidos comercialmente, que el Departamento de Defensa puede adquirir sin orden judicial?* Varios empleados de OpenAI expresaron su preocupación por el acuerdo descrito. Era casi como si se estuviera redactando en directo en redes sociales un contrato para que el ejército utilizara la tecnología de OpenAI en sistemas de armas, me comentó Jessica Tillipman, experta en derecho de contratos gubernamentales de la Universidad George Washington.

El lunes, OpenAI revisó su blog: La compañía anunció la modificación de su contrato con el Pentágono para proteger mejor a los estadounidenses del espionaje mediante IA. El nuevo texto señala que «el sistema de IA no se utilizará intencionalmente para la vigilancia interna de personas y ciudadanos estadounidenses» y que, «para evitar cualquier duda», el Departamento de Defensa (DOD) «entiende que esta limitación prohíbe el rastreo, la vigilancia o el monitoreo deliberados de personas o ciudadanos estadounidenses, incluso mediante la obtención o el uso de información personal o identificable obtenida comercialmente». En otras palabras, OpenAI deja claro que los términos de su contrato deben impedir que sus productos se utilicen para espiar masivamente a estadounidenses.

Expertos legales externos me comentaron que la actualización parece significativamente diferente del texto original del contrato y que, al menos, implica restricciones para el Pentágono que van más allá de la legislación vigente. Sin embargo, al igual que antes, el nuevo texto podría interpretarse como una justificación de la vigilancia automatizada de estadounidenses. Por ejemplo, términos como intencionalmente y deliberadamente ofrecen un amplio margen de maniobra para la recopilación de datos que se considera "incidental". Muchos datos adquiridos comercialmente podrían no considerarse "personales o identificables". De igual manera, las definiciones limitadas de términos como rastreo y vigilancia podrían permitir una amplia gama de recopilación de inteligencia nacional, según me comentó Carson, exsubsecretario del Ejército. "Lo que la gente común piensa que podría ser vigilancia no es en absoluto lo mismo que lo que significa vigilancia bajo las autoridades de seguridad nacional", afirmó. OpenAI no proporcionó definiciones de estos ni de ningún otro término en el contrato cuando se le solicitó.

La actualización también indica que el Pentágono "afirmó" que las tecnologías de OpenAI no serán utilizadas por agencias de inteligencia como la NSA sin más negociaciones, y los empleados de OpenAI entonces sugirieron que la empresa podría desear este tipo de alianzas en el futuro. La frase personas y ciudadanos estadounidenses sugiere que muchos inmigrantes, documentados o no, podrían no estar protegidos. OpenAI no respondió a la pregunta sobre si los inmigrantes indocumentados y los residentes no permanentes están protegidos por su contrato. Para Carson, las modificaciones son "cosas efímeras que parecen buenas": fachada sin garantías sustanciales. * * * * *

Por supuesto, todo este debate se basa en la creencia de que las prohibiciones contractuales son el factor determinante para impedir que un sistema de IA se utilice para la vigilancia doméstica masiva o para armas autónomas. Esto no es necesariamente cierto. Un abogado con buena fe podría interpretar casi cualquier lenguaje de mala fe. Si se toma en serio a OpenAI —que la firma no quiere que sus productos se utilicen para espiar a los estadounidenses—, entonces hacer cumplir el espíritu del contrato podría ser más importante que el lenguaje del documento. (Lewin, funcionario del Departamento de Estado, afirmó que "el gobierno tiene la intención de cumplir el contrato tal como está escrito" y que el uso de IA para la vigilancia doméstica masiva "nunca ha sido un problema").

Para ello, OpenAI ha anunciado que implementará un conjunto de medidas de seguridad técnicas, o una especie de barreras de seguridad, para supervisar el uso de sus modelos y que sus propios ingenieros colaborarán con el Departamento de Defensa (DOD), lo que, según la empresa, le permitirá "verificar de forma independiente que no se crucen estas líneas rojas". Al ser consultada, OpenAI no proporcionó más detalles sobre cómo funcionará su arquitectura de seguridad con el DOD. La empresa sostiene que estas barreras de seguridad y su contrato, en conjunto, ofrecen mejores garantías que los acuerdos anteriores, incluido el de Anthropic. Una vez más, todo se reduce a si se confía en OpenAI.

Todo esto nos lleva al que quizás sea el factor más importante y confuso de todos: ¿Qué sucede si el gobierno y OpenAI no están de acuerdo sobre si se permite algún uso de ChatGPT? ¿Qué hace OpenAI si cree que el Pentágono ha violado su acuerdo? Normalmente, el gobierno actúa primero y litiga las disputas después, me explicó Tillipman. (OpenAI afirmó que si determina que se han violado los términos del contrato, la empresa puede rescindirlo, pero no proporcionó detalles sobre el proceso).

Y esto distaba mucho de ser una negociación típica. Al incluir a Anthropic en la lista negra, afirmó Tillipman, el Departamento de Defensa demostró que "si se llega a un punto muerto, no temen" imponer sanciones extremas a una empresa privada estadounidense. Altman escribió en X que designar a Anthropic como un riesgo para la cadena de suministro "es un precedente extremadamente alarmante y desearía que [el gobierno] lo manejara de otra manera". La línea roja real debería ser muy evidente para OpenAI y cualquier otra empresa de IA que desee contratar con el Departamento de Defensa: se trabaja bajo los términos del gobierno, o no se trabaja en absoluto. OpenAI ha tomado su decisión.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd