Microsoft retire un article écrit par l’IA pour recommandation inappropriée
Microsoft a récemment publié un article généré par une intelligence artificielle (IA). Cependant, l’entreprise l’a rapidement retiré à cause d’informations incorrectes. L’erreur se trouvait dans la manière de l’IA de recommander aux lecteurs de visiter une banque alimentaire canadienne.
Le titre dudit article était « En route pour Ottawa ? Voici ce qu’il ne faut pas manquer ! ». En gros, cet article recommandait des lieux d’attraction touristique. Parmi les activités, l’article proposait notamment d’assister à des matchs de baseball ou de se rendre dans un musée de la guerre. L’IA a également mentionné la Banque alimentaire d’Ottawa et a dit à ce propos :
Les personnes qui viennent chez nous ont des emplois et des familles à soutenir, ainsi que des dépenses à payer. La vie est déjà assez difficile. Envisagez d’y aller à jeun.
Une recommandation hautement inappropriée
Selon Engadget, c’est Microsoft Start qui a publié l’article. Il s’agit du service d’information agrégé par l’IA qui a remplacé Microsoft News en 2021. La recommandation inappropriée a été de dire aux visiteurs de se mettre à jeun pour aller à la Banque alimentaire. Jeff Jones, un responsable de Microsoft, a assuré que « cet article a été supprimé et nous enquêtons sur la façon dont il a traversé notre processus de validation ».
Désormais, la page sur laquelle figurait l’article indique : « Cette page n’existe plus. Une nouvelle page de recherche se chargera automatiquement ». Le nom de l’auteur de cet article était « Microsoft Travel ». Il se peut ainsi qu’aucun humain n’ait été impliquée dans sa rédaction.
Les contenus générés par l’IA sont encore loin d’être irréprochables
Pour information, dans sa section « A propos de nous », Microsoft Start affirme utiliser une « surveillance humaine » pour ses algorithmes. Ces derniers parcourraient « des centaines de milliers de contenus » envoyés par les partenaires de l’entreprise pour « comprendre des dimensions telles que la fraîcheur, la catégorie, le type de sujet, le contenu d’opinion, la popularité potentielle et publier en fonction des préférences de l’utilisateur ».
Cependant, Microsoft aurait licencié une cinquantaine de journalistes en 2020 pour faire de la place aux informations générées par l’intelligence artificielle. Néanmoins, il semblerait que le Microsoft ne soit pas la première entreprise à rencontrer des problèmes concernant les contenus générés par l’IA. C’est aussi le cas de Crumpe et G/O Media qui ont eu des articles générés par l’IA comportant de nombreuses erreurs.