Actualités

OpenAI lance un comité de sécurité indépendant avec le pouvoir de bloquer la publication de ses modèles

OpenAI a récemment annoncé une importante réorganisation de son comité de sécurité. Ce dernier est désormais un comité de surveillance du conseil d’administration. Il exerce un rôle central avec le pouvoir de retarder la sortie des modèles d’intelligence artificielle (IA) pour des raisons de sécurité. Cette initiative reflète les préoccupations croissantes liées aux risques de l’IA.

Un pouvoir de blocage inédit chez OpenAI

Le comité de sécurité, présidé par ZicoKolter, regroupe également Adam D’Angelo, Paul Nakasone et Nicole Seligman. Ensemble, ils ont désormais le pouvoir de retarder la sortie de modèles OpenAI si des risques pour la sécurité sont détectés. Ce n’est pas seulement une simple recommandation, mais bien un pouvoir effectif de blocage. Ce comité travaille main dans la main avec le conseil d’administration pour s’assurer que les modèles soient sûrs avant leur lancement.

Par conséquent, chaque nouvelle version de modèle passera par des tests de sécurité rigoureux. Si des failles ou des risques sont découverts, le comité pourra empêcher leur sortie jusqu’à ce que les problèmes soient réglés.

OpenAI semble s’inspirer du modèle de Meta

Open AI avec Meta

OpenAI semble suivre une voie similaire à celle empruntée par Meta avec son propre « conseil de surveillance ». Meta, pour rappel, a mis en place un comité qui se penche sur les questions de politique de contenu. Ce comité peut également annuler certaines décisions. OpenAI prend ce concept et l’applique à la sécurité de l’IA. Cependant, une différence clé est à noter. Chez Meta, les membres du comité de surveillance ne font pas partie du conseil d’administration, garantissant une indépendance plus forte.

Dans le cas d’OpenAI, les membres du comité de sécurité sont également membres du conseil d’administration de l’entreprise. Cela soulève quelques interrogations sur la véritable indépendance du comité, au vu des liens entre les deux entités. Toutefois, OpenAI a affirmé que ce nouveau comité aura les coudées franches pour agir en toute autonomie.

Transparence et collaboration

En plus de cette réorganisation interne, OpenAI s’engage à être plus transparent sur ses pratiques de sécurité. L’entreprise promet des collaborations plus nombreuses avec d’autres acteurs du secteur de l’IA pour renforcer la sécurité des technologies IA. Elle envisage également d’ouvrir la porte à davantage de tests externes et indépendants sur ses systèmes.

Cette décision d’OpenAI intervient après un examen de 90 jours de ses protocoles de sécurité. Ce processus a permis de mettre en lumière plusieurs domaines où l’entreprise pourrait s’améliorer. OpenAI souhaite désormais partager ses résultats et s’ouvrir à davantage d’évaluations externes. Cela pourrait aider à rassurer le public et les experts quant à l’utilisation responsable de l’IA.

Photo de Christiane

Christiane

Christiane est votre experte en technologies numériques et innovations. Découvrez ses analyses approfondies et ses perspectives sur les dernières tendances high-tech, la cybersécurité, et l'impact des technologies émergentes sur notre quotidien. Restez connecté pour des conseils experts et des mises à jour incontournables.

Articles similaires

Bouton retour en haut de la page