Plusieurs pays s’engagent à rendre l’intelligence artificielle plus sécuritaire
Sécuriser l’intelligence artificielle dès sa conception. C’est l’engagement que 18 pays ont récemment pris dans le cadre d’un accord. D’après un haut responsable américain, c’est le premier accord international détaillé sur la manière de protéger l’intelligence artificielle des acteurs malveillants, poussant les entreprises à créer des systèmes d’IA « sécurisés par conception ».
L’intelligence artificielle pour servir et non pour desservir les gouvernements, les clients et le grand public
Dans cet accord de 20 pages, les 18 pays conviennent que les entreprises qui conçoivent et utilisent l’IA doivent la développer et la déployer de manière à protéger leurs clients et le grand public contre toute utilisation abusive.
Parmi les pays signataires, on compte les Etats-Unis, le Royaume-Uni, l’Allemagne, l’Italie, la République tchèque, l’Estonie, la Pologne, l’Australie, le Chili, l’Israël, le Nigeria et Singapour.
Aux Etats-Unis, le président Biden a signé en octobre un décret obligeant les sociétés d’IA américaines à effectuer des tests de sécurité pour protéger les systèmes contre les pirates informatiques.
Et l’Europe ?
D’après 9to5Mac, l’Europe a pris une longueur d’avance dans ce domaine en tentant de créer des lois spécifiques régissant le développement et la publication de nouveaux systèmes d’IA. Il y a notamment l’obligation légale pour les entreprises de mener des tests de sécurité réguliers pour détecter les vulnérabilités potentielles. Cependant, la lenteur des progrès dans ce domaine a conduit la France, l’Allemagne et l’Italie à conclure leur propre accord intérimaire.