Intelligence artificielle Puissance et créativité en Intelligence Artificielle

Pour approfondir le sujet

Sur le même thème :

Vendée Territoire Connecté : réseau d’objets connectés et jumeau numérique au service de la transition écologique

Vendée Territoire Connecté, l'un des douze projets lauréats de l'appel à projets DIAT, entre dans sa phase opérationnelle. Porté par Vendée Numérique et soutenu...

Nomination de Clara Chappaz : La voie vers une nouvelle mission ?

En ligne avec l’intervention en Serbie d’Emmanuel Macron fin août, la nomination de Clara Chappaz en tant que Secrétaire d’Etat Chargée de l’Intelligence Artificielle...

Mozilla appelle à créer une alternative publique à l’IA privée dominée par les Big Tech

Si l'organisation à but non-lucratif Mozilla est connue principalement pour son navigateur web, Mozilla Firefox, elle, œuvre sans relâche en faveur des libertés numériques, de...

IA et sûreté : vers une généralisation des caméras de vidéosurveillance intelligentes en France

L'expérimentation des caméras de surveillance augmentées d'IA lors des Jeux olympiques et paralympiques s'est avérée positive. Le gouvernement réfléchit donc à l'installer durablement sur...

Puissance et créativité en Intelligence Artificielle

Très souvent, l’Intelligence Artificielle paraît indissociable de l’utilisation d’importants volumes de données et d’une forte consommation de GPU (donc de puissance de calcul).

Cette vision est réductrice de la diversité des approches de l’IA et n’est pas représentative de l’ensemble des modèles qu’elle propose.

S’il est vrai que des algorithmes tels que les transformers de type BERT sont entraînés avec plusieurs Giga de données (plus de 130Go pour camemBERT), il existe d’autres voies dans l’Intelligence Artificielle comme celle, par exemple, proposée par Another Brain, frugale en énergie et données.

Ainsi, tout au long de son histoire, l’IA s’est construite autour d’une grande variété d’algorithmes et de techniques dont :

  • Systèmes à base de règles ou de connaissance,
  • Réseaux de neurones artificiels,
  • Programmation par contraintes,
  • Régressions linéaires, Machines à support de vecteur,

Dans les années 90, l’approche à base de connaissance (KBS) était celle qui donnait les résultats les plus concrets pour modéliser une expertise métier

Les KBS parvenaient même à proposer des solutions satisfaisantes dans des cas d’usage traitant des « données en continu ». Ainsi, ces systèmes apportaient des réponses au traitement d’ondes sonores ou pour la gestion de Haut-fourneaux avec la récupération en temps réel d’informations venant de capteurs. On ne parlait pas encore d’IoT mais il s’agissait tout de même d’objets qui transmettaient des informations.

Les réseaux de neurones consommateurs en calcul ne permettaient alors pas d’avoir des résultats aussi intéressants qu’aujourd’hui dans des délais raisonnables. Cependant, l’offre naissante (y compris en France avec des entreprises comme Neuristique) montrait que c’était une direction prometteuse… Des solutions liant systèmes experts et « réseaux neuromimétiques » semblaient permettre de dépasser les limites de chaque approche. Et la France avait une position toute particulière avec son salon précurseur, Neuro-Nîmes.

La programmation par contraintes répondait principalement à des problèmes mathématiques complexes (type NP-complets ou difficiles) de type ordonnancement, planification, allocation de ressources, etc…

Les techniques d’apprentissage machine s’appuyaient aussi sur des approches hybrides : apprentissage par généralisation, inductif, incrémental, etc…

Au milieu des années 90, Yann LeCun parvenait à finaliser LeNet associant des techniques classiques en traitement d’images (matrices de convolution), des réseaux de neurones et la célèbre rétro-propagation du gradient.

Les limitations matérielles impliquaient souvent de trouver des moyens adaptés pour gérer l’ensemble des données, obtenir des résultats dans des temps de calcul raisonnables et apporter une réelle aide aux utilisateurs.

Ainsi, comme souvent, la pénurie oblige à la créativité.

Les exemples d’articulations de technologies étaient alors nombreux pour résoudre des problématiques d’aide à la décision, de traitement du langage ou encore d’optimisations.

La possibilité de tirer avantage de différentes approche n’a pas totalement disparu de la réflexion des chercheurs. Par exemple, Facebook tente d’exploiter du Deep Learning pour attaquer des problèmes habituels de l’IA symbolique (dérivées et primitives, résolutions d’équations). Le débat sur l’utilité d’un couplage entre l’IA symbolique et l’IA connexionniste reste ouvert.

Mais la puissance de calcul actuelle pourrait conduire à réduire cette imagination. En effet, de nombreux algorithmes de réseaux de neurones peuvent répondre à un problème spécifique. Il y a ainsi un « risque de facilité » à ingérer des Go de données d’apprentissage sans se soucier de la quantité mémoire utilisée, du nombre de processeurs mis en œuvre, etc…

En effet, malgré les indéniables succès de l’IA et notamment des réseaux de neurones artificiels, la majorité des tâches de compréhension et de décision réalisées par les humains restent hors de sa portée. Aucun véhicule autonome n’est aujourd’hui capable d’anticiper une situation de conduite « non apprise », alors qu’il s’agit d’une tâche relativement banale pour un humain.

La compréhension des différences entre les mécanismes d’apprentissage des machines et ceux des humains est encore un sujet majeur de recherche en IA. Faire reposer les performances de l’IA uniquement sur la disponibilité d’un grand volume de données et une puissance de calcul importante pour, au final, des modèles peu généralisables à d’autres situations ne peut pas être satisfaisant.

Le cerveau humain apprend souvent une situation avec très peu d’exemples et avec une excellente capacité de généralisation à d’autres situations.

Cette capacité de « généralisation » à partir de peu « d’évènements » justifie de chercher des modèles qui ne soient pas exclusivement basées sur les données et la puissance.

En outre, de mon point de vue, la recherche d’une approche optimum et la mise au point de solutions « esthétiques » conservent leur importance.

Ainsi, limiter la consommation mémoire, réduire le temps de calcul, éviter les apprentissages inutiles ou une complexité injustifiée devraient toujours guider la mise en œuvre d’une solution informatique et a fortiori d’Intelligence Artificielle.

L’hybridation des algorithmes peut sans doute faire partie de cette panoplie des approches potentielles. L’imagination humaine reste indispensable pour créer une IA performante, esthétique et éthique.

(Image Source Pixabay)

Contributeur expert

Laurent Cervoni

Ingénieur de l’École Supérieure d’Ingénieurs en Électronique et Électrotechnique (E

Partager l'article

Vendée Territoire Connecté : réseau d’objets connectés et jumeau numérique au service de la transition écologique

Vendée Territoire Connecté, l'un des douze projets lauréats de l'appel à projets DIAT, entre dans sa phase opérationnelle. Porté par Vendée Numérique et soutenu...

Nomination de Clara Chappaz : La voie vers une nouvelle mission ?

En ligne avec l’intervention en Serbie d’Emmanuel Macron fin août, la nomination de Clara Chappaz en tant que Secrétaire d’Etat Chargée de l’Intelligence Artificielle...

Mozilla appelle à créer une alternative publique à l’IA privée dominée par les Big Tech

Si l'organisation à but non-lucratif Mozilla est connue principalement pour son navigateur web, Mozilla Firefox, elle, œuvre sans relâche en faveur des libertés numériques, de...

IA et sûreté : vers une généralisation des caméras de vidéosurveillance intelligentes en France

L'expérimentation des caméras de surveillance augmentées d'IA lors des Jeux olympiques et paralympiques s'est avérée positive. Le gouvernement réfléchit donc à l'installer durablement sur...