Microsoft alerte sur les risques biologiques liés à l’intelligence artificielle
L’intelligence artificielle progresse à grande vitesse. Cependant, ses usages soulèvent aussi des inquiétudes majeures. En effet, des chercheurs en biosécurité chez Microsoft ont récemment démontré que l’IA pouvait servir à générer des toxines mortelles. Cette découverte met en lumière les failles des systèmes de sécurité actuels et relance le débat sur les limites éthiques de l’innovation technologique.
L’IA serait capable de contourner les filtres de sécurité ADN, selon les experts de Microsoft
Lorsqu’un laboratoire souhaite créer une protéine, il commande des séquences d’ADN auprès de fournisseurs spécialisés. Ces entreprises utilisent des logiciels pour détecter les commandes suspectes. En particulier, celles qui pourraient servir à produire des toxines ou des agents pathogènes. Or, selon l’étude publiée par Microsoft le 2 octobre 2025 dans la revue Science, des modèles d’IA capables de générer des séquences inédites peuvent contourner ces filtres.
Plus précisément, les chercheurs ont utilisé l’intelligence artificielle pour créer des protéines ressemblant à des toxines connues. Notamment, la ricine, la toxine botulique ou la bactérie Shiga. À partir de 72 protéines ciblées, plus de 70 000 séquences alternatives ont été générées. Quatre systèmes de filtrage ont été testés : l’un a détecté 70 % des séquences dangereuses, mais un autre en a laissé passer plus de 75 %. Ces résultats montrent que les garde-fous actuels ne suffisent plus face aux capacités de l’IA.
Progrès médical ou menace biologique ?
Les outils d’IA utilisés dans cette étude sont les mêmes que ceux employés pour découvrir de nouveaux médicaments. Ils permettent de concevoir des molécules inédites, utiles pour la recherche médicale. Toutefois, ce potentiel peut aussi être détourné à des fins malveillantes. En générant des protéines toxiques absentes des bases de données scientifiques, l’IA échappe aux contrôles classiques et ouvre la voie à des usages dangereux.
Microsoft appelle à renforcer les protocoles de sécurité et à développer des standards plus robustes pour encadrer l’usage de l’IA dans le domaine biologique. Cette alerte intervient dans un contexte où les technologies génératives se multiplient, et où les risques liés à leur détournement deviennent de plus en plus concrets. L’enjeu est désormais de concilier innovation et responsabilité, pour éviter que l’IA ne devienne une arme invisible.