Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 6230

Loading...
La IA acaba de crear un virus funcional. Estados Unidos no está preparado para eso.
washingtonpost.com · 2025

Estamos lejos de estar preparados para un mundo en el que la inteligencia artificial pueda crear un virus funcional, pero debemos estarlo, porque ese es el mundo en el que vivimos.

En un artículo notable publicado este mes, científicos de la Universidad de Stanford demostraron que las computadoras pueden diseñar nuevos virus que luego pueden crearse en el laboratorio. ¿Cómo es posible? Pensemos en ChatGPT, que aprendió a escribir estudiando patrones en inglés. El equipo de Stanford aplicó la misma idea al componente fundamental de la vida, entrenando "modelos genómicos del lenguaje" con el ADN de bacteriófagos (virus que infectan a las bacterias, pero no a los humanos) para ver si una computadora podía aprender su gramática genética lo suficientemente bien como para escribir algo nuevo.

Resultó que sí. La IA creó nuevos genomas virales, que los investigadores luego construyeron y probaron en una cepa inofensiva de E. coli. Muchos de ellos funcionaron. Algunos eran incluso más fuertes que sus homólogos naturales, y varios lograron eliminar bacterias que habían desarrollado resistencia a los bacteriófagos naturales.

Los científicos procedieron con la debida cautela. Limitaron su trabajo a virus que no pueden infectar a los humanos y realizaron experimentos bajo estrictas normas de seguridad. Pero el hecho esencial es difícil de ignorar: las computadoras ahora pueden inventar virus viables, incluso potentes.

El artículo de Stanford es una preimpresión que aún no ha sido revisada por pares, pero este avance es enormemente prometedor. Las mismas herramientas que pueden crear nuevos virus podrían algún día aprovecharse para curar enfermedades. Los virus podrían diseñarse para combatir las bacterias resistentes a los antibióticos, una de las grandes crisis en la salud mundial. Combinaciones de diversos virus diseñados por IA podrían tratar infecciones que ningún medicamento existente puede combatir.

Pero no hay forma de endulzar los riesgos. Si bien el equipo de Stanford optó por lo seguro, ¿qué impide que otros utilicen datos abiertos sobre patógenos humanos para crear sus propios modelos? Y si eso sucede, las mismas técnicas podrían emplearse con la misma facilidad para crear virus letales para los humanos, convirtiendo un avance de laboratorio en una amenaza para la seguridad global.

Durante décadas, la estrategia de bioseguridad de EE. UU. se ha basado en la prevención. Muchas empresas de síntesis de ADN filtran pedidos para asegurarse de que los clientes no impriman genomas de patógenos conocidos. Los laboratorios siguen protocolos de seguridad. Los controles de exportación frenan la propagación de tecnologías sensibles. Estas barreras de seguridad siguen siendo importantes. Pero no pueden seguir el ritmo y la potencia de la innovación de la IA. Los sistemas de detección no pueden detectar un virus inédito. Y ninguna frontera puede bloquear la difusión de algoritmos una vez publicados en línea.

La resiliencia es la única respuesta viable. Si la IA acorta los plazos para el diseño de armas biológicas, Estados Unidos tendrá que reducir los plazos para responder a ellas. No podemos detener las nuevas amenazas generadas por la IA. El verdadero reto es superarlas.

En primer lugar, Estados Unidos necesita desarrollar las herramientas computacionales necesarias para responder tan rápido como surjan nuevas amenazas. Los mismos modelos que diseñan virus pueden entrenarse para diseñar rápidamente anticuerpos, antivirales y vacunas. Pero estos modelos necesitan datos sobre cómo interactúan los sistemas inmunitarios y las terapias con los patógenos, qué diseños fallan en la práctica y qué cuellos de botella existen en la fabricación. Gran parte de esa información se encuentra aislada en laboratorios privados, encerrada en bases de datos exclusivas o inexistente. El gobierno federal debería priorizar la creación de estas bases de datos de alta calidad. En segundo lugar, necesitamos la capacidad física para convertir esos diseños informáticos en medicamentos reales. Actualmente, pasar de un diseño prometedor a un fármaco eficaz puede llevar años. Lo que se necesita son instalaciones de reserva que puedan validar miles de candidatos en paralelo y luego producir rápidamente en masa los mejores. El sector privado no puede justificar el gasto que supone desarrollar esa capacidad para emergencias que podrían no llegar nunca. El gobierno debe intervenir, liderando con contratos a largo plazo que mantengan las plantas listas hasta que llegue la próxima crisis.

En tercer lugar, la regulación debe adaptarse. Las vías de uso de emergencia de la Administración de Alimentos y Medicamentos (FDA) no se diseñaron para terapias diseñadas por computadoras en tiempo real. Se necesitan nuevas autoridades de vía rápida que permitan el despliegue provisional de contramedidas y ensayos clínicos generados por IA, junto con rigurosas medidas de monitorización y seguridad. Y todo el sistema debe someterse a pruebas de estrés antes de una crisis, con ejercicios nacionales periódicos que simulen un brote generado por IA.

Durante años, los expertos han advertido que la biología generativa podría desbaratar la línea temporal entre el diseño y el desastre. Ese momento ha llegado. Los virus creados en el experimento de Stanford fueron inofensivos para los humanos. Los próximos podrían no serlo.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd