L'intelligence artificielle a une longue et passionnante histoire qui commence dans les années 1950.
Crédits photos : Designed by upklyak / Freepik
Entre découvertes majeures et périodes de désillusions, batailles entre les tenants du courant symbolique et ceux du courant connexionniste, l’Intelligence Artificielle (IA) a une longue histoire. Depuis une dizaine d’années, grâce notamment à la puissance de calcul des ordinateurs et un accès à des datas phénoménales, l’IA a fait un bond en avant incroyable et repousse sans cesse ses limites. Voici une chronologie de ses grandes dates.
Entre avancées technologiques et désillusion
1950 : Test de Turing
Dans son article “Computing Machinery and Intelligence” publié en 1950, le génialissime Alan Turing et pionnier de l’intelligence artificielle (qu’il nommait à l’époque l’intelligence des machines) proposa de répondre à la question suivante : une machine peut-elle penser ?
Il s’est inspiré de l’« Imitation Game » alors très en vogue dans les fêtes britanniques. Dans ce jeu, un homme et une femme se cachent dans deux pièces différentes, et doivent convaincre les invités qu’ils sont l’autre en répondant à l’écrit aux questions posées par ces derniers. Pour son test, Alan Turing a remplacé l’un des deux humains par une machine. Ce test ne fait pas toujours l’unanimité mais personne aujourd’hui n’a trouvé mieux pour répondre à cette question : une machine peut-elle penser ?
1956 : Conférence de Dartmouth
S’il fallait un commencement dans l’épopée de l’Intelligence artificielle, Dartmouth pourrait être celui-ci. En effet, c’est lors de cette conférence qu’est utilisé pour la première fois le terme « intelligence artificielle » pour décrire ce nouveau domaine. Cet événement, pendant 6 jours, a rassemblé une quinzaine de scientifiques dont plusieurs sont devenus des acteurs majeurs de l’IA : John McCarthy (créateur du langage LISP, pionniers du cloud computing), Marvin Minsky (cofondateur avec McCarthy du Groupe d’intelligence artificielle du MIT), Allen Newell et Herbert Simon, entre autres, qui ont tous gagné le prix Turing !
1957 : Le Perceptron
Tentative d’imitation de la mécanique interne du cerveau avec la création des premiers réseaux neuronaux artificiels, appelés « perceptron ». Grâce à ce procédé, son inventeur, le psychologue américain Frank Rosenblatt, simule sur un ordinateur les capacités d’apprentissage d’un cerveau humain. Une avancée importante dans l’histoire de l’intelligence et les prémices du machine learning.
1966 : Le premier robot mobile
Aux États-Unis, une équipe du Stanford Research Institute (SRI) développe Shakey, le premier robot mobile qui raisonne sur ses propres actions. Monté sur trois roulettes, Shakey semble tout droit sorti d’un vieux film SF. Mais il est pourtant une véritable percée pour l’IA et la robotique (son corollaire) : traitement du langage naturel pour comprendre les instructions humaines, algorithmes de recherche pour suivre son propre parcours, capteurs et vision par ordinateur pour interpréter l’environnement, un système de planification pour préparer les actions suivantes… Les prémices de la voiture autonome.
Essor du courant connexionniste et renouveau de l’IA
1989 : Naissance des réseaux convolutifs
Le Français Yann Le Cun met au point, avec son laboratoire AT&T Bell Labs, la première technique de réseaux convolutifs. Il signe ainsi son premier succès avec la reconnaissance des chiffres du code postal inscrit sur les colis. L’US Postal Service en fera la première utilisation industrielle. Un déploiement mondial d’un logiciel de lecture de chèque, basé sur cette technologie, se fera à partir de 1996, dans toutes les banques. En France, c’est le Crédit Mutuel de Bretagne qui en sera le premier utilisateur.
1990 : Création du prix Loebner
Concours initié par l’inventeur Hugh Loebner avec le Cambridge Center for Behavioral Studies. Le but est de faire avancer les recherches dans le domaine de l’intelligence artificielle. Objectif : faire passer le Test de Turing à des machines !
1997 : Deep Blue bat aux échecs le champion Garry Kasparov
Le 11 mai 1997, Garry Kasparov, après avoir déjà gagné contre les versions précédentes de Deep Blue, perd la sixième manche, déstabilisé par un coup qu’il n’arrive pas à comprendre. Deep Blue gagne alors en seulement 19 coups, laissant Kasparov sous le choc dans ce match ultra médiatisé. L’IA rentre dans l’Histoire ! Le superordinateur d’IBM Deep Blue, avec ses 1,4 tonne de matériel informatique, signe surtout une victoire du Machine Learning et relance l’intérêt pour l’Intelligence Artificielle longtemps délaissée.
2005 : Première voiture autonome ?
En 2004, la DARPA (l’agence américaine de recherche avancée pour la Défense) lance son Grand Challenge de véhicules terrestres sans pilote et autonomes. Les règles sont simples, le véhicule doit se déplacer de manière autonome et parcourir un circuit en moins de 10 heures sans accros pour gagner 1 million de dollars ! C’est l’année suivante que le robot Stanley du SRI remporte la compétition face aux 22 autres véhicules.
2007 : Une charte éthique des robots
Inspirée par les règles écrites par le romancier Isaac Asimov dans les années 40, la Corée du Sud a mis en place une Charte éthique des robots. Elles stipulent que “les robots ne doivent pas s’en prendre à des humains ou permettre à des humains de faire du mal. Les robots doivent obéir aux humains, à moins que cela n’entre en conflit avec la première loi. Les robots doivent assurer leur protection si cela n’entre pas en conflit avec les autres lois”.
Le Deep Learning s’impose dans l’IA
2011 : Watson d’IBM remporte Jeopardy
Watson d’IBM, remporte Jeopardy, la version américaine de “Questions pour un champion” contre les deux plus brillants compétiteurs de ce jeu et empoche 1 million de dollars. Après avoir battu le champion du monde d’échecs, IBM enfonce le clou et passe à la vitesse supérieure avec la compréhension du langage naturel et l’analyse sémantique. Aidé de ses 15 To de RAM et de ses 2880 processeurs, Watson est un véritable supercalculateur.
2013 : Création du Facebook Artificial Intelligence Research (FAIR)
Dirigé par l’incontournable français Yann Le Cun, le Facebook Artificial Intelligence Research (FAIR) compte plusieurs antennes dans le monde dont la plus importante est à Paris (80 personnes). Cela montre l’intérêt très grand des GAFAM dans l’IA. Apple, Google, Microsoft, et Amazon ne sont pas en reste au vu de leur rachat de startups orientées IA ou encore le nombre de projets en OpenSource mis à disposition sur GitHub. La Chine avec ses BATX reste aussi dans la course, son objectif est de rattraper les Etats-Unis d’ici 2025 et devenir leader d’ici 2030.
2016 : AlphaGo fait trembler l’Asie
Après avoir battu Fan Hui, le français et champion européen de Go, la société britannique (rachetée par Google en 2014) fait le buzz en battant le sud- oréen Lee Sedol, l’un des meilleurs joueurs mondiaux, grâce à son programme d’intelligence artificielle AlphaGo. Cette victoire de la machine contre l’homme dans un jeu de stratégie millénaire et complexe à un écho médiatique très fort et aura de nombreuses répercussions. Premièrement, elle consacre l’avènement du deep learning. Deuxièmement, elle a ouvert de nouvelles voix jusque là impensables dans la pratique du Go. Enfin, elle aura pour effet le réveil de la Chine dans la course à la maîtrise de l’IA.
2018 : AI for humanity
Cédric Villani, médaillé Fields et député de La République en Marche rend public son rapport sur l’Intelligence Artificielle pour en « dresser une feuille de route » et préconise trois axes de travail pour la France : former et développer la recherche ; un accès et un partage de la donnée facilité ; une IA éthique (biais, mixité, impact). La France adopte une vision et une stratégie bien définie.
L’Intelligence Artificielle a une histoire très riche et en dent de scie qui ne s’arrête pas, bien entendu, en 2018. En effet, chaque jour, de nouvelles annonces sont faites sur de nouveaux investissements, de nouveaux usages… Une requête “Intelligence Artificielle” sur le moteur de recherche Google finira de vous en convaincre. De nombreuses questions de société restent encore sans réponse : data, biais, environnement, etc. Dans cette histoire, il ne faudrait surtout pas les oublier sous prétexte de progrès technologique.