L’intelligence artificielle est une technologie liée à de nombreux domaines dont l’informatique, les mathématiques, les sciences cognitives, les statistiques, la psychologie ou encore la neuro-biologie, ce qui explique que son histoire soit aussi riche.
Aussi paradoxal que cela puisse paraître, son origine remonte à bien avant la création des premières machines automatisées. En effet, dès l’Antiquité l’idée de robots intelligents et d’êtres artificiels ou mécaniques apparaissent dans la culture populaire à travers les mythes de Pygmalion et d’Héphaïstos par exemple ou encore les statues mécaniques chinoises, égyptiennes ou grecques.
Des fondations de l’intelligence artificielle jusqu’à sa définition comme discipline académique
Pour en arriver à la définition de l’intelligence artificielle comme discipline académique, il a fallu des siècles d’innovations dans des domaines très divers. Car cette conceptualisation s’appuie bien évidemment sur plusieurs travaux et inventions antérieurs comme la définition du syllogisme par Aristote en 384 av. J.-C., la création par Héron d’Alexandrie des premiers automates au 1er siècle ap. J.-C. ou encore l’invention de l’Ars Magna de Ramon Lulle en 1275.
A partir du 17e siècle, la théorisation du vivant, le développement des sciences et de la mécanique permettent des découvertes et des publications fondamentales. Citons notamment la théorie de Descartes selon laquelle les corps des animaux n’étaient rien de plus que des machines complexes, celle de Thomas Hobbes présentée dans son œuvre Léviathan en 1641 ou encore de Blaise Pascal qui lui a permis de créer la première calculatrice digitale en 1642. Les travaux de Gottfried Leibniz en ce qui concerne le système de numération binaire, le concept de Calculus ratiotinator ou l’amélioration des machines existantes, entre autres, font également partie de l’histoire de l’intelligence artificielle.
Le 20e siècle voit s’enchaîner des révolutions en matière d’intelligence artificielle, jusqu’à la conceptualisation du domaine à Dartmouth en 1956. Les travaux de Bertrand Russell et d’Alfred North Whitehead sur la logique, publiés dans Principia Mathematica, en sont une excellente illustration, tout comme ceux de Ludwig Wittgenstein et Rudolf Carnap sur l’analyse logique de la connaissance et d’Alonzo Church, qui a développé le système formel Lambda-calcul dans les années 30 et ainsi fondé les concepts de fonction et d’application.
Parmi les autres inventions ou découvertes du 20e siècle ayant joué un rôle majeur dans l’histoire moderne de l’intelligence artificielle, il faut bien évidemment citer la machine et le test de Turing, la première définition d’un neurone formel de McCulloch et Pitts, les travaux sur la cybernétique de Wiener ou encore ceux de von Neumann sur la théorie des jeux.
L’invention des premiers ordinateurs en 1943 a marqué le début d’une nouvelle ère technique mais la recherche en intelligence artificielle telle que nous l’entendons aujourd’hui a été conceptualisée par les informaticiens et chercheurs John McCarthy, Alan Newell, Arthur Samuel, Herbert Simon et Marvin Minsky lors d’une conférence sur le campus de l’Université de Dartmouth en 1956.
La conférence de Dartmouth, un moment clé de l’histoire
Dans les années 50, différentes étapes ont été franchies. Les travaux de Turing et de Claude Shannon concernant le jeu d’échecs ont fait grand bruit au sein de la communauté scientifique. Dans le même temps les premiers programmes d’intelligence artificielle capables de fonctionner et de jouer aux échecs contre un humain sont développés par l’Université de Manchester avec la Ferranti Mark 1, puis par Arthur Samuel.
En 1956, plusieurs des plus grands chercheurs de l’époque, dans ce domaine de recherche, se réunissent dans le New Hampshire lors d’une conférence d’été donnée sur le campus du Dartmouth College. Parmi eux on retrouve John McCarthy, Marvin Minsky, Claude Shannon, Alan Newell, Arthur Samuel, Herbert Simon ou encore Nathan Rochester d’IBM, des noms qui resteront parmi ceux des précurseurs de ce domaine. Le terme “Intelligence Artificielle” est adopté pour désigner ce qui devient une discipline académique à part entière.
A partir de 1956-1957 démarre donc un âge d’or qui marquera l’histoire de l’intelligence artificielle avec des événements clés dont la première démonstration de la Logic Theorist mais également le programme d’Allen Newell, Herbert Simon et Cliff Shaw considéré par certains comme le premier programme d’intelligence artificielle.
Des travaux tels que le General Problem Solver, GPS, développé par ces trois mêmes chercheurs en 1957 et le langage LISP, créé en 1958 par McCarty au MIT, et permettant de faciliter la programmation d’intelligence artificielle, font partie de l’histoire moderne de ce domaine de recherche. Tout comme les premiers programmes de traduction développés par l’équipe de Margaret Masterman à l’université de Cambridge.
Aux Etats-Unis, l’Agence de Recherche du Pentagone (ARPA puis DARPA) finance activement les recherches dans le domaine et les universités créent des laboratoires spécialisés, notamment le AI Lab au MIT fondé par John McCarthy et Marvin Minsky. En Europe l’intelligence artificielle intéresse aussi les universités et les gouvernements. En France, Jacques Pitrat est l’un des pionniers de l’intelligence artificielle symbolique tandis que Donald Michie impulse l’université d’Edimbourg.
Mais à partir du milieu des années 60 et surtout de la publication au Royaume-Uni du Rapport Lighthill, le développement assidu de l’intelligence artificielle est freiné.
Les années de doute
Le grand public commence à se montrer très méfiant vis à vis de certains projets de recherche dont les médias se font l’écho. Du côté des pouvoirs publiques, beaucoup de fonds et de subventions destinés à l’innovation en matière d’intelligence artificielle se voient réduits tandis que plusieurs projets sont abandonnés. Le pessimisme quant aux possibilités réellement offertes par l’intelligence artificielle se répand et l’intérêt pour le domaine de recherche s’estompe.
Ces déceptions n’empêchent pas les scientifiques de poursuivre leurs efforts. Ainsi entre 1964 et 1966 est construit Eliza, un programme informatique créé par Joseph Weizanbaum, également au MIT. Ce système, un ancêtre des chatbots actuels, était capable de dialoguer en anglais comme le ferait un ou une psychologue. Puis en 1967, est développé par Greenblatt le premier programme d’échecs pouvant atteindre un niveau satisfaisant et vaincre certains joueurs d’un niveau moyen.
Les chercheurs s’intéressent également à d’autres méthodes de développement et à d’autres processus de fonctionnement. En 1971, Winograd créé le robot virtuel SHRDLU capable de dialoguer avec l’expérimentateur et de lui poser des questions lorsqu’il est confronté à une consigne qui n’est pas suffisamment précise.
En 1974, les systèmes experts, dont MYCIN de Buchanan et Shortliffe, sont à leur apogée. MYCIN est un système créé, avec succès, pour assister les médecins dans leur diagnostic et dans le traitement de certaines maladies bactérienne sanguines.
Dans le même temps, la micro-informatique connait des évolutions sans précédent avec la création de Microsoft en 1975, d’Apple en 1977 et le développement d’IBM PC entre 1980-1981.