Le déploiement de l'assistant Meta AI sur l'ensemble des plateformes de Meta : WhatsApp, Facebook, Instagram, Messenger et Threads, se fait de manière progressive mais soutenue, souvent sans avertissement clair, ni possibilité d'exclusion globale. Un déploiement massif qui, selon Adrianus Warmenhoven, expert en cybersécurité chez NordVPN, pose de sérieuses questions en matière de transparence et de protection des données des utilisateurs.

Une UX conçue pour favoriser l'engagement plutôt que la transparence

Selon Warmenhoven, Meta conçoit son IA pour être perçue comme intuitive, naturelle, et utile. Toutefois, cette apparente simplicité cache un design orienté vers la maximisation de l'engagement utilisateur, au prix d'une transparence amoindrie. L'absence de balises claires pour identifier les interactions avec l'IA, la collecte passive de données comportementales et la difficulté à refuser l'utilisation de l'IA soulèvent des questions profondes.
L'expert alerte ainsi sur une "adoption forcée", où les utilisateurs peuvent partager des données avec l’IA sans le réaliser pleinement. Il affirme :
"Ce qui semble transparent et utile en surface cache une vérité inconfortable. Meta privilégie la commodité à la transparence, facilitant le partage de données sans révéler son coût réel."

Design psychologique et responsabilité éthique

La conception des plateformes joue ici un rôle clé. Les utilisateurs interagissent parfois avec l'IA sans en avoir conscience, ce flou rend difficile l'exercice d'un choix éclairé.
Adrianus Warmenhoven observe :

"L'utilisation par Meta de la psychologie de la conception soulève des inquiétudes quant à l'éthique du déploiement de l'IA. En intégrant l'IA dans les interactions régulières des applications sans indices visuels clairs ni avertissements, les utilisateurs peuvent s'engager dans des interactions qu'ils n'avaient pas prévues, souvent sans s'en rendre compte."


ajoutant :

"Les gens croient qu'ils conversent avec un humain ou qu'ils utilisent simplement la plateforme normalement. Mais en arrière-plan, l'IA de Meta apprend d'eux et stocke ce qu'elle apprend.”

Des risques spécifiques selon la plateforme

Les préoccupations ne sont pas uniformes : chaque plateforme Meta présente des failles spécifiques, comme on peut le voir dans ce tableau partagé par NordVPN.
 
Plateforme
Risques liés à la protection de la vie privée
Points clés
Citation d'Adrianus Warmenhoven
WhatsApp
🔴 Sévère
- Consentement partiel dans les discussions de groupe- Pas d'opt-out global- L'IA contourne le chiffrement de bout en bout.
" Même si vous n'utilisez pas l'IA, vos métadonnées pourraient y être intégrées sans votre consentement."
Facebook
🔴 Sévère
- Pas de refus clair - Les outils d'IA se fondent dans l'interface - Récolte passive de données comportementales.
"Vous interagissez avec l'IA avant même de vous en rendre compte et c'est intentionnel."
Instagram
🟠 Haut
- Engagement implicite- Pas de paramètres IA dédiés- Signaux d'engagement et données comportementales améliorés.
"L'activité de votre fil d'actualité devient une donnée d'entraînement, que vous l'acceptiez ou non."
Messenger
🟡 Modéré
- Pas de séparation claire entre les chats IA/humains- Pas de cryptage pour les discussions IA-. Des divulgations obscures
"Deux discussions d'apparence identique peuvent avoir des implications totalement différentes en matière de protection de la vie privée.
Threads
🟡 Modéré
- Consentement implicite et spécifique à la région- Pas d'opt-out- Analyse de l'engagement par l'IA en arrière-plan.
"Même si vous ignorez l'IA, elle continue de vous observer et de façonner votre expérience.

 

Quelle gouvernance pour un déploiement responsable ?
Warmenhoven plaide pour des fonctionnalités universelles d'opt-in/opt-out, accompagnées d'une communication claire et homogène sur l'utilisation des données :

"Pour un déploiement responsable de l'IA, il faut des fonctions universelles d'opt-in et d'opt-out. Un paramètre qui permet aux gens d'activer et de désactiver les fonctions d'IA sur toutes les plateformes de Meta. Si ce n'est pas une option opt-in, au moins une explication claire dès le départ sur la façon dont les données seront utilisées".

L'expert conclut :

"L'IA peut certainement coexister avec la vie privée. Mais seulement si des entreprises comme Meta donnent la priorité à la transparence, au consentement et à la sécurité. Sans cela, la confiance disparaît et avec elle, la valeur à long terme de l'IA".