OpenAI a annoncé une mise à jour majeure de ChatGPT : son modèle conversationnel phare peut désormais puiser dans l'ensemble des discussions passées d'un utilisateur pour fournir des réponses plus personnalisées et contextuelles. Cette fonctionnalité, réservée dans un premier temps aux abonnés Plus et Pro hors Europe, marque une étape dans la transformation de ChatGPT d'outil ponctuel en assistant adaptatif.
D'une mémoire fragmentaire à une rétention transversale
Jusqu'à présent, la mémoire de ChatGPT était limitée à une session ou à des bribes de préférences enregistrées (style, thèmes récurrents). Avec cette nouvelle fonctionnalité, l'IA peut désormais accéder à l'historique complet des échanges, ce qui ouvre la voie à une personnalisation plus fine, une continuité dans les projets et à la capacité de faire des liens sur le long terme. 
La promesse est forte. Dans un contexte professionnel, un assistant doté d'une mémoire longue pourrait non seulement intégrer les enjeux stratégiques récurrents d’un utilisateur, mais aussi suivre son calendrier éditorial, adapter ses réponses à ses préférences argumentatives et prendre en compte ses interlocuteurs habituels. Pour un usage personnel, c'est l'assurance d'une continuité : projets suivis, préférences stylistiques, objectifs de long terme. L'utilisateur y gagne en efficacité et en fluidité.
Mais cette mémoire accrue interroge. Peut-elle conduire à un assistant trop prévisible ? En s'ajustant aux habitudes de l'utilisateur, ne risque-t-elle pas de figer la diversité des points des points de vue et renforcer les biais cognitifs ?
Enjeux éthiques et souveraineté des données
Cette connaissance fine du comportement utilisateur soulève également des questions d'ordre éthique. OpenAI permet aux utilisateurs de garder le contrôle total sur cette fonctionnalité : ils peuvent consulter, modifier ou supprimer les souvenirs enregistrés, voire désactiver complètement la mémoire. Malgré cette maîtrise, quel est le degré de transparence sur les données utilisées ? En raison des réglementations européennes, notamment le RGPD, cette mémoire à longue durée n'est d'ailleurs pas disponible au sein de l'UE.
Un écosystème en transition
ChatGPT n’est pas le seul modèle à explorer la mémoire longue. Plusieurs acteurs développent également des IA capables de contextualisation étendue :
  • Claude (Anthropic) propose une mémoire de type RAG (Retrieval Augmented Generation), combinant conversation et bases de connaissances externes, avec une forte emphase sur l’éthique et l’alignement utilisateur ;
  • Gemini (Google DeepMind) intègre des éléments de contextualisation transversale au sein de l’écosystème Google Workspace, préfigurant une forme de mémoire distribuée mais centrée sur les usages documentaires ;
  • Meta travaille sur des assistants sociaux à mémoire relationnelle, intégrés aux plateformes sociales, où la continuité affective prime sur l’analyse rationnelle ;
  • Des projets comme Pi (Inflection AI) ou Character.AI misent sur une mémoire émotionnelle, visant à construire une relation suivie et engageante avec l’utilisateur.
La convergence vers une mémoire longue semble inévitable, mais les logiques divergent : efficacité professionnelle, fidélisation émotionnelle, ou intégration écosystémique. À terme, le véritable enjeu ne sera peut-être pas la capacité à se souvenir, mais la capacité à choisir ce qu’il faut oublier.
Vers un nouvel équilibre
Cette mémoire décuplée signe peut-être le début d'un nouveau rapport aux assistants conversationnels.  Reste à savoir si l'utilisateur est prêt à accepter ce niveau "d'intimité technologique", et à quels compromis sur la personnalisation, la diversité et la vie privée il est prêt à consentir.