Problème 6230
Nous sommes loin d'être prêts à vivre dans un monde où l'intelligence artificielle peut créer un virus fonctionnel, mais nous devons l'être, car c'est le monde dans lequel nous vivons actuellement.
Dans une remarquable étude publiée ce mois-ci, des scientifiques de l'Université de Stanford ont d émontré que les ordinateurs peuvent concevoir de nouveaux virus qui peuvent ensuite être créés en laboratoire. Comment est-ce possible ? Prenons l'exemple de ChatGPT, qui a appris à écrire en étudiant des modèles en anglais. L'équipe de Stanford a appliqué la même idée à l'élément fondamental de la vie, en entraînant des « modèles de langage génomique » sur l'ADN des bactériophages – des virus qui infectent les bactéries mais pas les humains – afin de voir si un ordinateur pouvait apprendre leur grammaire génétique suffisamment bien pour écrire quelque chose de nouveau.
Il s'avère que c'est possible. L'IA a créé de nouveaux génomes viraux, que les chercheurs ont ensuite construits et testés sur une souche inoffensive d'E. coli. Nombre d'entre eux ont fonctionné. Certains étaient même plus résistants que leurs homologues naturels, et plusieurs ont réussi à tuer des bactéries qui avaient développé une résistance aux bactériophages naturels.
Les scientifiques ont procédé avec la prudence qui s'impose. Ils ont limité leurs travaux aux virus incapables d'infecter les humains et ont mené des expériences dans le respect de règles de sécurité strictes. Mais l'essentiel est difficile à ignorer : les ordinateurs peuvent désormais inventer des virus viables, voire puissants.
L'article de Stanford est une prépublication qui n'a pas encore été évaluée par les pairs, mais cette avancée est très prometteuse. Les mêmes outils permettant de créer de nouveaux virus pourraient un jour être utilisés pour guérir des maladies. Des virus pourraient être conçus pour lutter contre les bactéries résistantes aux antibiotiques, l'une des grandes crises de la santé mondiale. Des cocktails de virus divers conçus par l'IA pourraient traiter des infections qu'aucun médicament existant ne peut traiter.
Mais il ne faut pas édulcorer les risques. Si l'équipe de Stanford a joué la carte de la sécurité, qu'est-ce qui empêche d'autres d'utiliser des données ouvertes sur les agents pathogènes humains pour construire leurs propres modèles ? Et si cela se produit, les mêmes techniques pourraient tout aussi bien être utilisées pour créer des virus mortels pour l'homme, transformant une découverte de laboratoire en une menace pour la sécurité mondiale.
Pendant des décennies, la stratégie américaine de biosécurité a été fondée sur la prévention. De nombreuses entreprises de synthèse d'ADN filtrent les commandes pour s'assurer que leurs clients n'impriment pas des génomes d'agents pathogènes connus. Les laboratoires respectent les protocoles de sécurité. Les contrôles à l'exportation ralentissent la propagation des technologies sensibles. Ces garde-fous restent importants. Mais ils ne peuvent suivre le rythme et la puissance de l'innovation en matière d'IA. Les systèmes de dépistage ne peuvent pas détecter un virus qui n'a jamais existé auparavant. Et aucune frontière ne peut bloquer la diffusion des algorithmes une fois publiés en ligne.
La résilience est la seule réponse viable. Si l'IA réduit à néant le délai de conception des armes biologiques, les États-Unis devront réduire le délai de réponse. Nous ne pouvons pas arrêter les nouvelles menaces générées par l'IA. Le véritable défi est de les devancer.
Tout d'abord, les États-Unis doivent développer les outils informatiques nécessaires pour réagir rapidement à l'apparition de nouvelles menaces. Les mêmes modèles qui conçoivent les virus peuvent être entraînés à concevoir rapidement des anticorps, des antiviraux et des vaccins. Mais ces modèles nécessitent des données : sur la façon dont les systèmes immunitaires et les thérapies interagissent avec les agents pathogènes, sur les conceptions qui échouent en pratique et sur les goulots d’étranglement de la fabrication. Une grande partie de ces informations est cloisonnée dans des laboratoires privés, enfermée dans des ensembles de données propriétaires, voire totalement inexistante. Le gouvernement fédéral devrait faire de la constitution de ces ensembles de données de haute qualité une priorité.
Deuxièmement, nous avons besoin de la capacité physique nécessaire pour transformer ces conceptions informatiques en véritables médicaments. À l’heure actuelle, passer d’une conception prometteuse à un médicament efficace peut prendre des années. Ce qu’il faut, ce sont des installations prêtes à l’emploi, capables de valider des milliers de candidats en parallèle, puis de produire rapidement en masse les meilleurs. Le secteur privé ne peut justifier les dépenses liées au développement de ces capacités pour des urgences qui pourraient ne jamais survenir. Le gouvernement doit intervenir et prendre l’initiative avec des contrats à long terme qui maintiennent les usines prêtes jusqu’à la prochaine crise.
Troisièmement, la réglementation doit s’adapter. Les procédures d'utilisation d'urgence de la Food and Drug Administration (FDA) n'ont pas été conçues pour des thérapies conçues par ordinateur en temps réel. Il est nécessaire de mettre en place de nouvelles autorités de traitement accéléré permettant le déploiement provisoire de contre-mesures et d'essais cliniques générés par l'IA, ainsi que des mesures de surveillance et de sécurité rigoureuses. De plus, l'ensemble du système doit être soumis à des tests de résistance avant une crise, avec des exercices nationaux réguliers simulant une épidémie générée par l'IA.
Depuis des années, les experts avertissent que la biologie générative pourrait perturber le calendrier entre la conception et la catastrophe. Ce moment est arrivé. Les virus créés lors de l'expérience de Stanford étaient inoffensifs pour l'homme. Les prochains pourraient ne pas l'être.