Maxence Jahan
Un algorithme détraqué
Journal n 10 - 02/11/2021
Le New York Times a révélé vendredi 3 septembre en fin de matinée qu’un algorithme de Facebook avait proposé des « vidéos sur les primates » à la suite d’une vidéo dans laquelle des personnes noires étaient présentes.
La vidéo du Daily Mail concernait un appel de la police par une personne blanche contre des personnes noires dans une marina. Évidemment cette vidéo ne montrait ni animaux ni singes. Sous cette vidéo était proposé l’option de « voir plus de vidéo sur les primates » affiché pour certains utilisateurs du réseau notamment Darci Groves, ancienne employée du géant social.

« C’est scandaleux » a-t-elle déclarée à ses anciens collègues de l’application les incitant à faire remonter l’information. Un porte-parole de Facebook a désigné cette erreur comme étant « inacceptable » et présenté ses excuses à tous les internautes ayant « vu ces recommandations insultantes. L’entreprise a désactivé par la suite l’option de recommandation sur ce sujet dès lors que cette erreur fut découverte.
Encore une fois, cet épisode montre que l’intelligence artificielle qui examine et propose des services aux utilisateurs est toujours imparfaite et que ces systèmes ont « des progrès à faire ». L’entreprise a besoin de plus d’effort pour arriver à construire une bulle personnalisée pour tous ses clients, soit 3 milliards d’utilisateurs.
Le sujet n’a pas été sans mépris de la part d’associations militant contre le racisme ou d’autres formes de discriminations des réseaux sociaux, qui accusent ces algorithmes de contribuer à la « division de la société américaine ». Des tensions sont apparues notamment dans le contexte du mouvement « Black Lives Matter ».
Les groupes comme Facebook, Instagram ou Twitter ont encore des progrès à faire dans le domaine de l’intelligence artificielle et risque d’augmenter ce type d’erreurs dans les prochaines années.

Maxence Jahan, 2nde 1