En cette période de pandémie, de nombreux pays se penchent d’autant plus sur les algorithmes et le traitement automatique, notamment pour lutter et contrôler l’expansion du Covid-19. Cependant, de nombreux experts ont alerté de possibles violations des libertés fondamentales et droits de l’Homme.
Le Conseil de l’Europe a appelé ce 8 avril ses 47 États membres à appliquer le principe de précaution dans la réalisation et la mise en œuvre de systèmes fondés sur des algorithmes et à se doter de lois, de politiques et de pratiques respectant pleinement les normes des droits de l’homme.
Dans sa Recommandation sur les impacts des systèmes algorithmiques sur les droits de l’homme, le Comité des Ministres du Conseil de l’Europe énonce une série de lignes directrices invitant les gouvernements à garantir qu’ils n’enfreignent pas les droits de l’homme dans le cadre de l’utilisation, du développement ou de l’acquisition de systèmes algorithmiques. De plus, leur pouvoir réglementaire donne à ces derniers l’obligation d’établir des cadres législatifs, réglementaires et de supervision efficaces et prévisibles, capables de prévenir, de détecter, d’interdire et de remédier aux violations des droits de l’homme, qu’elles soient imputables à des acteurs publics ou privés.
La recommandation se félicite du vaste potentiel dont disposent les processus algorithmiques en matière d’innovation et de développement économique dans de nombreux domaines tels que la communication, l’éducation, les transports, la gouvernance et les systèmes de santé. Dans le contexte actuel de la pandémie du COVID-19, les systèmes algorithmiques facilitent la prédiction, le diagnostic et la recherche sur les vaccins et les traitements. Des dispositifs de suivi électronique poussée sont envisagés par un nombre croissant d’États membres – ils s’appuient, une fois de plus sur des systèmes algorithmiques et automatisés.
En même temps, la recommandation met en garde face aux importants défis en matière de droits de l’homme que soulève le recours aux systèmes algorithmiques, notamment en ce qui concerne le droit à un procès équitable ; le droit au respect de la vie privée et à la protection des données ; le droit à la liberté de pensée, de conscience et de religion ; le droit à la liberté d’expression et de réunion ; le droit à l’égalité de traitement ; et les droits économiques et sociaux.
Face à la complexité des algorithmes et à la vitesse et l’ampleur de leur développement, les lignes directrices appellent les États membres à rester attentifs aux conséquences des processus concernés sur les droits fondamentaux et à mettre en œuvre des dispositifs efficaces de gestion des risques. Ils devraient interdire le développement de certains systèmes dès lors que leur déploiement présente un risque élevé de dommages irréversibles ou qu’ils sont tellement opaques que tout contrôle et surveillance par l’être humain devient illusoire. Des conséquences aussi graves qu’imprévisibles peuvent survenir du fait de l’interdépendance et de l’interconnexion croissante de multiples systèmes algorithmiques déployés dans un même environnement.
Par principe, les États devraient veiller à ce que les systèmes algorithmiques intègrent dès leur conception des dispositifs aptes à protéger la sûreté, la vie privée, les données et la sécurité. Les États doivent en outre évaluer minutieusement la qualité et la provenance des jeux de données ainsi que des risques inhérents comme la possible identification à partir de données traitées sous couvert d’anonymat, les utilisations inappropriées ou décontextualisées et la génération de nouvelles données potentiellement sensibles déduites par traitement automatisé.
Les lignes directrices soulignent que les institutions nationales de surveillance, de contrôle, d’évaluation des risques et d’application des compétentes doivent être dotées par leurs gouvernements des ressources et des pouvoirs nécessaires. Les gouvernements doivent aussi mener des consultations et une coopération régulière avec toutes les parties prenantes concernées, y compris le secteur privé, et sensibiliser le grand public au potentiel et aux incidences des systèmes algorithmiques, et notamment à leurs risques.