1. Actus & Agenda
  2. FR
  3. Actus
  4. Recherche

L'IA a 70 ans: une intelligence devenue médiatique

Publié le 8 avril 2025 Mis à jour le 9 avril 2025

De l'apparition des premiers réseaux de neurones dans les années 1950 à l'essor fulgurant de l'intelligence artificielle (IA) moderne, cette nouvelle technologie est passée, en septante ans, du domaine confidentiel des laboratoires à une omniprésence médiatique et sociétale. Hugues Bersini (Ecole Polytechnique de Bruxelles) retrace l’histoire de cette technologie et met en perspective les bouleversements et défis que pose l'IA contemporaine.

L'histoire d'une intelligence en devenir 

L'IA n'est pas une nouveauté. Depuis les années 1950, les chercheurs ont tenté de développer des systèmes capables de simuler la pensée humaine. Hugues Bersini, co-directeur d’IRIDIA, rappelle que les réseaux de neurones existaient déjà à cette époque, mais leur potentiel était limité par le manque de données et de puissance de calcul. Ce n'est qu'avec l'explosion du Big Data et des capacités de traitement que l'IA a connu une progression exponentielle. 

Les grandes étapes de l'IA moderne 

À l’aide de six exemples clés, Hugues Bersini met en évidence les grands jalons de l’histoire de l’IA et démontre comment cette technologie constitue en elle-même une forme de révolution dans la pensée, impactant notre vision du monde et notre société, à l’instar des découvertes de Copernic, Darwin ou encore Freud.

Le premier exemple marquant, selon lui, est celui des voitures autonomes. Bersini évoque les premières compétitions de voitures autonomes qui se sont déroulées il y a vingt ans aux États-Unis. La technologie reposait déjà sur des réseaux de neurones — une idée des années cinquante — imitant certains comportements humains. Aujourd'hui, ces véhicules sont une réalité, notamment outre-Atlantique, grâce à des modèles bien plus sophistiqués, nourris par des millions de données.

Le deuxième exemple est la victoire, en 2011, du système Watson au célèbre jeu télévisé Jeopardy!. Ce système, mis au point par IBM, illustre comment l'IA peut analyser d'innombrables bases de données textuelles, comme Wikipédia, pour formuler des réponses pertinentes. Ce sont ici des techniques d'IA symbolique et de Machine Learning qui ont été mobilisées, rendues possibles par l’accès à une immense base de connaissances textuelles — la même logique de traitement s’appliquant aujourd’hui aux modèles comme ChatGPT.

Le troisième exemple est l’application de l’intelligence artificielle au jeu de Go. Ce jeu de stratégie, réputé pour sa complexité — avec des milliards de coups possibles —, avait longtemps résisté à la modélisation algorithmique. Un logiciel, MoGo, a été entraîné par essai-erreur. Plutôt que d’affronter uniquement des joueurs humains, les algorithmes ont été mis en compétition entre eux, apprenant ainsi des stratégies nouvelles. La véritable révolution réside ici : l’IA ne se contente plus d’imiter, elle génère des formes de jeu inédites, surpassant parfois les meilleurs joueurs humains.

Ce processus de création par l’IA fait écho à un quatrième exemple tout aussi significatif : l’investissement de l’intelligence artificielle dans le monde de l’art. Une question récurrente se pose : les artistes vont-ils disparaître ? L'IA peut-elle créer à notre place ? L'exemple évoqué par Hugues Bersini est celui de tableaux générés à la manière de Rembrandt. Il s’agissait de faire s’affronter deux réseaux de neurones : l’un apprenant à peindre comme Rembrandt, l’autre à distinguer les vrais des faux. Ce type d’approche, appelée GAN (Generative Adversarial Network), met en évidence la puissance du neuronal, capable non seulement d’imiter mais aussi de mélanger les styles, de générer des œuvres hybrides et de repousser les limites des disciplines artistiques. Bersini insiste cependant : si la technologie a toujours infiltré le milieu artistique, elle ne remplace pas l’imaginaire — elle doit s’y articuler dans une synergie féconde.

Le cinquième exemple concerne les avancées scientifiques et médicales permises par l’IA. Comme il le rappelle, deux prix Nobel récents — en physique et en chimie — ont couronné des travaux s'appuyant sur l'intelligence artificielle. Le cas du Nobel de chimie, attribué pour les travaux sur le repliement des protéines via le réseau de neurones AlphaFold, est emblématique. Ce problème biologique demeurait insoluble depuis plusieurs décennies. Or, ces IA offrent des résultats d’une précision stupéfiante… sans que leurs propres concepteurs ne peuvent toujours expliquer comment les réseaux arrivent à ces prédictions. Cela ouvre à la fois des perspectives et des inquiétudes sur la "boîte noire" algorithmique.

Enfin, le sixième exemple aborde OpenAI et ChatGPT. Hugues Bersini rappelle qu’un tournant décisif s’est opéré dès les années 1960 avec les travaux du linguiste Noam Chomsky. Ce dernier proposait une grammaire générative universelle, postulant que le langage humain obéit à des règles structurales profondément ancrées dans l’esprit humain. À cette époque, plusieurs chercheurs ont tenté d’implémenter ces idées dans des logiciels capables d’encoder ces règles, dans une logique top-down : comprendre le langage, c’était le formaliser par des systèmes logiques et syntaxiques. Mais ce modèle "symbolique" a montré ses limites. Aujourd’hui, ChatGPT fonctionne selon une approche radicalement différente, dite connexionniste : les modèles de langage n’apprennent plus les règles du langage humain, mais les infèrent à partir de l’analyse statistique de milliards de phrases. Là où Chomsky voulait modéliser la pensée humaine à travers la structure logique du langage, ChatGPT statistise le langage sans jamais "comprendre". Ce glissement de paradigme constitue une rupture : il ne s’agit plus de simuler la pensée humaine, mais de prédire les formes qu’elle pourrait prendre. L’IA ne raisonne pas, elle anticipe.

L'IA, un défi éthique et sociétal 

Si les capacités de l'IA impressionnent, elles inquiètent aussi. Ce que pointe Bersini, c’est moins l’intelligence des machines que le rapport nouveau, presque désengagé, que les humains entretiennent avec leur propre expertise. Dans un retournement paradoxal, les ingénieurs eux-mêmes semblent aujourd’hui se réjouir de l’effacement progressif de l’humain dans les processus de connaissance. Pour illustrer cette tendance, il évoque la suppression progressive des linguistes dans les laboratoires de traitement automatique du langage – parce que “ça marche mieux sans eux”.

À ce titre, il entrevoit un “quatrième décentrage” de l’humanité, après Copernic, Darwin et Freud : cette fois, l’humain n’est plus au centre de la production de savoir, ni même de la technologie qu’il a pourtant conçue. L’intelligence artificielle, en apprenant à apprendre sans explication, ouvre un champ de découvertes dont les mécanismes mêmes nous échappent. À l’image d’un système qui, pour accomplir sa tâche, pourrait développer des stratégies autonomes, voire dangereuses, au nom d’un simple objectif mal encadré.

C’est dans cette tension – entre efficacité inégalée et perte de contrôle, entre compréhension mimétique et dépossession du sens – que se déploie toute la complexité de l’IA actuelle. Loin d'un catastrophisme face à la fascination de l'IA, Bersini reste prudent et alerte sur une dynamique bien réelle : celle d’un glissement où, en confiant toujours plus à la machine, l’humain risque de s’absenter, y compris de ses propres choix. Reste à déterminer la place qu'il souhaite occuper dans cette révolution en marche. L’avenir, sans doute, en sera le juge.