1. Actus & Agenda
  2. FR
  3. Magazines
  4. Esprit libre
  5. Derniers numéros

Intelligence articielle: plus que jamais, former des esprits libres

Publié le 17 mars 2026 Mis à jour le 20 mars 2026

L’arrivée fulgurante de l’intelligence artificielle générative dans le monde académique redéfinit les manières d’apprendre et d’enseigner, tout en interrogeant la finalité même de la formation universitaire. Face à cela, l’ULB adopte une position lucide: l’IA n’est ni un danger à éradiquer, ni une voie rapide vers la connaissance. Son émergence rappelle au contraire l’essentiel: former des étudiantes et étudiants capables de penser par eux-mêmes, d’exercer leur jugement et de comprendre les outils qui transforment leur époque.

L’intelligence artificielle générative n’a pas frappé à la porte de l’Université: elle est entrée avec fracas dans nos auditoires. En quelques années, elle s’est imposée comme un ensemble de technologies capables de produire des textes, du code, des images ou des raisonnements avec une aisance déconcertante. Plus troublant encore, les modèles récents réussissent désormais des tests et épreuves dans de nombreux domaines, au point d’alimenter un débat public souvent provocateurs: annoncer la fin des études universitaires, déclarer obsolètes les savoirs humains, ou réduire l’enseignement supérieur à une simple antichambre du marché du travail.

Face à ce tumulte, l’ULB adopte une position sans ambiguïté: refuser à la fois les visions utilitaristes et appauvries de l’université, et les discours de rejet idéologique. L’IA générative (IAG) agit avant tout comme un révélateur des missions fondamentales de l’Université. Former à l’ère de l’IA ne consiste pas à produire des exécutants, mais des individus capables de comprendre, questionner, contextualiser et juger. Autrement dit: des esprits libres.
 

Pas une fabrique de «presse-boutons»

Penser que l’automatisation de certaines tâches rendrait secondaires les compétences humaines revient à accepter une forme de démission intellectuelle collective. Ce serait former des «presse-boutons» face à des systèmes conçus par une minorité d’acteurs, porteurs de choix techniques, de biais et de valeurs implicites qu’il faut précisément être capable d’identifier et d’interroger.

La position de l’ULB est cohérente avec ses valeurs : continuer à former des acteurs de la société dotés d’esprit critique, d’autonomie intellectuelle et de maîtrise disciplinaire, capables d’exploiter l’IAG de manière éclairée et responsable, guidés par le principe du libre examen, et disposant de compétences solides et durables dans un monde où le numérique et l’IA occupent une place croissante. Ce bagage ne se réduit pas à des compétences techniques rapidement obsolètes. L’IA ne pense pas à notre place ; elle peut en revanche amplifier les compétences et la pensée, à condition de ne jamais renoncer à l’effort intellectuel.

L’IA générative ne fonctionne pas comme un outil neutre. Elle s’apparente plutôt à un interlocuteur persuasif, qui oriente le raisonnement. À la manière d’un discours bien construit, elle peut convaincre par la forme autant que par le fond. Sans culture disciplinaire solide et sans esprit critique, le risque est grand d’accepter des productions plausibles mais erronées. Cette exigence de rigueur et de discernement constitue une application contemporaine du libre examen, au cœur de l’identité de l’Université.
 

Encadrer plutôt qu'interdire aveuglément

Face à ces enjeux, l’ULB a fait un choix assumé: ni interdiction générale, ni laisser-aller. L’IA ne peut se substituer à l’acquisition et à la démonstration des compétences intellectuelles qui fondent un diplôme universitaire. Cette position se traduit par des mesures concrètes, notamment l’adaptation du Règlement général des études et une réflexion approfondie sur les évaluations et les mémoires. Concrètement, l’utilisation de l’IA est autorisée par défaut pour les mémoires et travaux de fin d’études, moyennant le respect de trois principes fondamentaux: la transparence, la subsidiarité (l’étudiant reste garant de son travail et ne lui délègue pas une tâche constitutive de la compétence évaluée) et la responsabilité, notamment en matière de données et de confidentialité. Pour les autres évaluations, l’IA est interdite par défaut, sauf autorisation explicite de l’enseignant.

Partie intégrante de l’ADN de l’institution, la liberté académique demeure centrale. Chaque enseignant ou enseignante évalue si l’usage de l’IA remet en cause les compétences visées par son cours. L’Université l’accompagne dans cette réflexion, sans imposer de solution unique.
 

Repenser l'évaluations et les programmes

Ne soyons pas naïfs: l’IA pose des défis concrets pour l’évaluation. Les capacités actuelles des modèles permettent souvent de satisfaire, voire de dépasser, les exigences formelles de certains examens. Cela peut jeter le doute sur l’authenticité d’un travail. Utiliser l’IA pour simuler l’acquisition d’une compétence constitue une fraude. Il est donc indispensable d’adapter les modalités d’évaluation, soit en rendant inopérant le recours à l’IA, soit en permettant d’en certifier l’usage approprié.

Ces défis ne tiennent pas uniquement à l’IA. Ils s’inscrivent dans un contexte plus large de miniaturisation et de démocratisation de dispositifs de communication, glissant discrètement tout le savoir disponible sur Internet et toute la capacité de synthèse et de raisonnement de l’IA dans le creux d’une oreille. 

Ces défis ne tiennent pas uniquement à l’IA. Ils s’inscrivent dans un contexte plus large de miniaturisation et de démocratisation de dispositifs de communication, glissant discrètement tout le savoir disponible sur Internet et toute la capacité de synthèse et de raisonnement de l’IA dans le creux d’une oreille. 

«L’existence de l’IA ne doit pas conduire à exiger moins, mais à exiger autrement, et souvent davantage.»

Former toute la communauté, de manière critique

L’omniprésence de l’IA impose à toutes et tous une compréhension minimale de son fonctionnement. Parce que l’IA traverse l’ensemble des missions universitaires, l’ULB a déployé un programme de formation institutionnel ambitieux: Academ·IA. Son objectif: familiariser l’ensemble de la communauté universitaire à une utilisation critique, responsable et éclairée de l’IA.

En quelques mois, plusieurs milliers d’étudiants ont déjà été sensibilisés à ces enjeux, tandis qu’un premier noyau d’enseignants s’est engagé dans des parcours de formation approfondis pour intégrer l’IA de manière pertinente dans leurs pratiques pédagogiques. Ce plan de sensibilisation massive doit être complété par une offre de cours développée et adaptée. L’Université enrichit donc son expertise en intelligence artificielle à travers trois chaires inter-facultaires. Ces chaires associent la Faculté de Médecine et l’École polytechnique de Bruxelles; la Faculté d’Architecture, la Solvay Brussels School et la Faculté des Sciences; ainsi que la Faculté de Droit et de Criminologie et la Faculté de Philosophie et Sciences sociales. Cette dynamique est complétée par un certificat interuniversitaire en éthique du numérique et de l’IA, développé avec l’UNamur et FARI, et par un nouveau bachelier en Techniques numériques pour l’Information et Communication sur le campus de Charleroi, intégrant l’IA dans la formation des futurs professionnels de la communication.
 

IA, pédagogie et équité

L’IA peut également devenir un outil pédagogique complémentaire. Certaines facultés expérimentent déjà des usages spécifiques: assistants conversationnels en comptabilité, approches créatives en architecture, simulations en pharmacie, réflexion critique sur la traduction automatique et l’éthique des modèles linguistiques en lettres, traduction et communication.

Cette diversité reflète une conviction forte: il n’existe pas une seule manière d’enseigner avec l’IA, mais une volonté institutionnelle d’en expérimenter les possibilités en appui aux apprentissages, dans un cadre réfléchi et exigeant.

L’IA soulève enfin un enjeu central d’équité. Tous les étudiants n’ont pas accès aux mêmes outils, et cette asymétrie peut accentuer les inégalités. L’ULB met donc à disposition de l’ensemble de sa communauté une solution institutionnelle gratuite et sécurisée, assortie de garanties contractuelles en matière de confidentialité et de protection des données. À court terme, cette solution repose sur Microsoft Copilot. En parallèle, l’Université développe des solutions souveraines au sein de son Centre de données A6K à Charleroi (lire l'article) pour les usages nécessitant un niveau de confidentialité élevé et afin de renforcer, à terme, son autonomie technologique.

Faire de l’IA un outil d’émancipation plutôt qu’un facteur d’exclusion ne relève pas d’un technophilisme naïf, mais d’un choix profondément universitaire.

L’ULB choisit de garder le cap et de continuer à former des esprits capables de penser avec les outils de leur temps – et parfois contre eux – sans jamais renoncer à leur jugement.

Nicolas Van Zeebroek, Jérémy Jenard, Romain Bertand et Yann-Aël Le Borgne

Plus d'informations sur l'IA à l'ULB