Miroir ou vraie intelligence ?
Le 8 octobre a été décerné le Nobel de physique (et non le Nobel d’informatique, Turing) à l’Américain, John Hopfield et au Britannique, Geoffrey Hinton pour leurs travaux dans les années 1980 sur les réseaux de neurones qui ont permis l’émergence actuelle de l’apprentissage profond (deep learning). La machine apprenant en quasi-autonomie. Dessus, viennent des « intelligences artificielles » faibles et demain fortes.

Cet article retrace brièvement l’histoire de l’IA, depuis ses débuts jusqu’à l’ère actuelle dominée par les IA spécialisées, comme les grands modèles de langage (LLM), et enfin vers les perspectives d’une IA forte à venir.
Les origines de l’IA remontent au milieu du XXe siècle, lorsque le mathématicien et logicien britannique Alan Turing proposa l’idée que des machines pouvaient simuler toute activité intellectuelle humaine. À la fin des années 1950, le terme "intelligence artificielle" fut inventé par l’informaticien américain John McCarthy. Les années 1960 et 1970 virent la création des premiers programmes d’IA, tels que *ELIZA*, un chatbot simple développé par Joseph Weizenbaum, et *SHRDLU*, un système de compréhension du langage naturel créé par Terry Winograd. Ces programmes démontraient que les machines pouvaient accomplir des tâches simples, bien qu’elles manquaient de véritable compréhension ou flexibilité.
La phase suivante du développement de l’IA s’est concentrée sur ce que l’on appelle aujourd’hui l'« IA faible » — des systèmes conçus pour accomplir des tâches spécifiques plutôt que d’imiter une intelligence générale. Ces IA spécialisées, qui ont émergé à partir des années 1980, sont devenues de plus en plus sophistiquées et pratiques. Les systèmes experts, tels que *MYCIN* dans le domaine médical, faisaient partie des premières applications d’IA largement utilisées, s’appuyant sur une base de connaissances et des règles pour prendre des décisions.
L’apprentissage automatique (machine learning) a marqué un tournant décisif dans l’évolution de l’IA. À la fin du XXe et au début du XXIe siècle, les chercheurs ont développé des algorithmes permettant aux machines d’apprendre à partir de données et de s’améliorer au fil du temps, sans être explicitement programmées. L’apprentissage supervisé, les réseaux de neurones et, plus tard, les techniques d’apprentissage profond (deep learning) ont révolutionné le domaine, permettant aux IA de réaliser des tâches comme la reconnaissance d’images, le traitement du langage naturel et les jeux à un niveau de compétence sans précédent.
Dernièrement médiatisés, les grands modèles de langage (LLM) tels que GPT (Generative Pre-trained Transformer) incarnent l’état actuel de l’IA faible. Ces systèmes, entraînés sur des volumes massifs de données textuelles, peuvent générer du texte de manière humaine, répondre à des questions et même créer des récits cohérents. Cependant, malgré leurs capacités impressionnantes, les LLM manquent de véritable compréhension et de conscience.
Le but ultime de la recherche en IA a longtemps été la création d’une « IA forte » — des machines capables d’accomplir toute tâche intellectuelle qu’un humain peut réaliser, y compris le raisonnement, la résolution de problèmes et l’apprentissage de manière autonome et flexible. Les progrès récents dans des domaines tels que les réseaux de neurones, l’apprentissage par renforcement et l’IA neuro-symbolique ont rapproché les chercheurs de cet objectif. Ce qui pose des défis techniques, éthiques et philosophiques considérables demain. Sans parler des questions sociales, économiques et environnementales.