Actualités

OpenAI : Ses protocoles de sécurité sont remis en question

Actuellement, OpenAI fait partie des entreprises les plus en vues dans le domaine de l’intelligence artificielle. Pourtant, ses employés ont récemment exprimé leurs inquiétudes concernant les protocoles de sécurité de l’entreprise. Ils ont notamment fait part de leurs inquiétudes dans la presse et dans des podcasts.

Dernièrement, une source anonyme a affirmé auprès du Washington Post qu’OpenAI avait précipité les tests de sécurité. Le laboratoire de recherche se serait également vanté de son produit avant même de s’assurer de sa sécurité. Un employé a confié au Washington Post :

Ils ont planifié la soirée qui a suivi le lancement avant même de savoir si le lancement était sûr. Nous avons échoué dans ce processus.

OpenAI aurait relégué la sécurité au second plan

OpenAI met à jour ChatGPT, voici les nouveautés de l’intelligence artificielle

Apparemment, les problèmes de sécurité sont plus fréquents qu’on ne le pense chez OpenAI. Selon The Verge, des employés anciens et actuels auraient signé une lettre ouverte exigeant de meilleures pratiques de transparence et de sécurité. Néanmoins, peu de temps après, l’équipe de sécurité a été dissout suite au départ du cofondateur, Ilya Sutskever.

Peu de temps après, un chercheur clé d’OpenAI, Jan Leike, a également rendu son tablier, affirmant que « la culture et les processus de sécurité ont été relégués au second plan par rapport aux produits brillants ».

Le laboratoire affirme être confiant par rapport à sa gestion des risques

En principe, la sécurité est au cœur de la charte d’OpenAI. Une clause stipule même que le laboratoire aidera d’autres organisations à faire progresser la sécurité si un concurrent atteint l’ « AGI ». Autrement dit, qu’OpenAI priorisera l’entraide à la rivalité. L’AGI, ou intelligence générale artificielle, est un domaine de recherche théorique sur l’IA qui tente de créer des logiciels dotés d’une intelligence similaire à celles des humains et capables d’être autodidactes.

De son côté, l’entreprise affirme travailler à résoudre les problèmes de sécurité inhérents à un système aussi vaste et complexe. Taya Christianson, porte-parole d’OpenAI, a déclaré à The Verge :

Nous sommes fiers de notre expérience en matière de fourniture des systèmes d’IA les plus performants et les plus sûrs et nous croyons en notre approche scientifique pour gérer les risques. Un débat rigoureux est essentiel compte tenu de l’importance de cette technologie, et nous continuerons à collaborer avec les gouvernements, la société civile et d’autres communautés du monde entier au service de notre mission.

Photo de Arielle

Arielle

Bavarde avec ma plume, mais introvertie par nature, je baigne dans l'univers de la rédaction depuis plus de cinq ans. Bien que je sois polyvalente dans les thèmes à traiter, j'ai une familiarité accrue pour le high-tech. J'espère que ma plume saura vous divertir tout en vous informant !

Articles similaires

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Bouton retour en haut de la page