Dans la présentation de ses travaux en cours, Twitter a mis en avant, ce 14 avril, l’IA éthique. Le réseau social souhaite améliorer ses algorithmes de machine learning de tel manière à ce qu’ils soient plus éthiques et transparents pour les personnes inscrites sur la plateforme. L’objectif est de donner un peu plus de contrôle aux utilisateurs tout en répondant aux critiques liées aux dangers potentiels que peuvent provoquer ces technologies.
Une démarche transparente et éthique
Les réseaux sociaux, dont évidemment Twitter, sont surveillés de près par des ONG et élus politiques sensibles à la question de la protection des données et de l’éthique de l’IA. Le fondateur et PDG du réseau social, Jack Dorsey, a fait part à plusieurs reprises de sa volonté de donner plus de pouvoir aux utilisateurs et de rendre la modération des contenus plus “décentralisée”.
L’entreprise s’est exprimée quant à la tenue de ce projet :
“Le choix algorithmique donnera plus de contrôle aux utilisateurs pour façonner le Twitter qu’ils veulent. Nous sommes à un stade exploratoire sur ce sujet.”
Des études à venir
Twitter indique travailler sur la modification de ses algorithmes de machine learning pour faire en sorte “qu’ils assument la responsabilité et la transparence de leurs décisions en amont et l’équité des résultats en aval”. Cette décision fait suite aux propos de Jack Dorsey, en février dernier, qui suggérait que les utilisateurs puissent classer les algorithmes en fonction de ce qu’ils veulent voir.
L’équipe de recherche qui va s’atteler à la modification de ces algorithmes devra publier plusieurs études concernant d’éventuels aspects racistes ou sexistes de l’algorithme qui, par exemple, rogne les images avant la publication de celles-ci. Cette étude se penchera également sur le sujet brûlants des recommandations de contenus selon les idéologies politiques de sept pays.