Charles Cohen explique : "Le problème c'est que si on veut détecter beaucoup de choses, ça va détecter également beaucoup d'erreurs.Ce que font les GAFAs, c'est qu'ils réduisent la sensibilité d'analyse à 20 ou 30 % de contenu détecté pour faire très peu d'erreurs.C'est dû à l'absence d'analyse de contexte. Avec ce genre de Machine Learning, si on va dire: "n'écoute pas les c**nards qui disent que t'es moche", l'algorithme va dire que ce contenu est haineux car il y a des mots très violents, alors que ce commentaire est plutôt gentil.On compense ce fort taux d'erreur par une combinaison de plusieurs niveaux d'analyse qui sont envoyés dans des modèles de prédiction, ce qui réduit le taux d'erreur à 2%."L'application Bodyguard est disponible sur Android et Ios.
DataBuzzWord : L'intelligence artificielle pour lutter contre le cyberharcèlement
Jean-Louis Quéguiner