Des chercheurs de l’unité de dynamique des réseaux cérébraux du MRC et du département d’informatique de l’Université d’Oxford ont développé un nouveau principe pour expliquer comment le cerveau ajuste les connexions entre les neurones pendant l’apprentissage. Ce nouveau principe, appelé “configuration prospective”, diffère fondamentalement de la méthode de rétropropagation utilisée par les réseaux de neurones artificiels.
Pour les chercheurs, des modèles utilisant la configuration prospective pourraient apprendre plus rapidement et plus efficacement que les réseaux de neurones artificiels dans des tâches similaires à celles auxquelles sont confrontés les humains et les animaux dans la nature, ce qu’ils ont d’ailleurs démontré dans des simulations informatiques. Ils ont partagé leur approche dans Nature Neuroscience.
La configuration prospective
L’essence de l’apprentissage réside dans l’identification des composants du flux de traitement de l’information responsables d’une erreur de sortie. Dans le domaine de l’IA, cette identification est accomplie par la rétropropagation, où les paramètres d’un modèle sont ajustés pour minimiser l’erreur de sortie et pour de nombreux chercheurs, le cerveau utilise un principe d’apprentissage similaire.
Pour l’équipe d’Oxford, “La rétropropagation, en tant que théorie simple mais efficace de l’attribution de crédits, a permis des avancées notables dans l’intelligence artificielle depuis sa création et a également acquis une place prédominante dans la compréhension de l’apprentissage dans le cerveau”.
Cependant, le cerveau biologique surpasse actuellement les systèmes d’apprentissage automatique. Par exemple, nous pouvons assimiler de nouvelles informations en les rencontrant une seule fois, tandis que les systèmes artificiels doivent être entraînés des centaines de fois pour apprendre les mêmes données. De plus, notre capacité à intégrer de nouvelles informations sans perturber les connaissances préexistantes est bien supérieure à celle des réseaux de neurones artificiels, qui tendent à interférer avec les connaissances existantes et à les dégrader rapidement.
Ces constatations ont motivé les chercheurs à définir le principe fondamental sous-tendant l’apprentissage cérébral. En analysant des ensembles d’équations mathématiques décrivant les changements dans le comportement des neurones et les connexions synaptiques, ils ont ainsi identifié un principe d’apprentissage différent de celui utilisé par les réseaux de neurones artificiels : la configuration prospective.
Pour illustrer leurs propos, ils donnent l’exemple concret d’un ours pêchant le saumon. L’ours peut voir la rivière et il a appris que s’il peut aussi l’entendre et sentir le saumon, il est probable qu’il en attrape un. Mais un jour, l’ours arrive à la rivière avec une oreille abîmée, il ne peut donc pas l’entendre. Dans un modèle de traitement de l’information par réseau de neurones artificiels, ce manque d’audition se traduirait également par un manque d’odorat (car en apprenant qu’il n’y a pas de son, la rétropropagation modifierait de multiples connexions, y compris celles entre les neurones codant pour la rivière et le saumon) et l’ours conclurait qu’il n’y a pas de saumon et resterait sur sa faim. Dans le cerveau de l’animal, l’absence de son n’interfère pas avec l’odeur du saumon, l’ours va donc pêcher.
Les chercheurs ont élaboré une théorie mathématique démontrant que laisser les neurones s’installer dans une configuration prospective réduit les interférences pendant l’apprentissage. Ils ont également montré, grâce à des simulations informatiques, que les modèles utilisant cette configuration apprennent plus rapidement et plus efficacement que les réseaux de neurones artificiels dans des tâches analogues à celles auxquelles sont confrontés les animaux et les humains dans la nature.
Le chercheur principal, le professeur Rafal Bogacz de l’unité de dynamique des réseaux cérébraux du MRC et du département Nuffield de neurosciences cliniques d’Oxford, déclare :
“Il existe actuellement un grand écart entre les modèles abstraits effectuant une configuration prospective et notre connaissance détaillée de l’anatomie des réseaux cérébraux. Les recherches futures de notre groupe visent à combler le fossé entre les modèles abstraits et les cerveaux réels, et à comprendre comment l’algorithme de configuration prospective est mis en œuvre dans les réseaux corticaux anatomiquement identifiés”.
Le premier auteur de l’étude, le Dr Yuhang Song, ajoute :
“Dans le cas de l’apprentissage automatique, la simulation de la configuration prospective sur les ordinateurs existants est lente, car ils fonctionnent de manière fondamentalement différente du cerveau biologique. Un nouveau type d’ordinateur ou de matériel dédié inspiré du cerveau doit être développé, qui sera capable de mettre en œuvre une configuration prospective rapidement et avec une faible consommation d’énergie”.
Références de l’article : Blog Université Oxford
Article : “Inferring Neural Activity Before Plasticity : A Foundation for Learning Beyond Backpropagation “, Nature Neuroscience, https://doi.org/10.1038/s41593-023-01514-1
Auteurs :
Yuhang Song, Beren Millidge, Tommaso Salvatori, Thomas Lukasiewicz, Zhenghua Xu, Rafal Bogacz