Depuis la sortie de ChatGPT en novembre 2022, les spéculations vont bon train quant à l’impact économique de l’intelligence artificielle (IA). Les uns promettent un boom de productivité à venir, les autres une apocalypse sur le marché de l’emploi… En ouvrant son agent conversationnel au grand public, OpenAI a ravivé le vent de panique soulevé par les travaux de Carl Frey et Michael Osborne, chercheurs à Oxford, en 2013.
Nous avions mené, sur le sujet, une étude pour la Commission européenne. Trois hypothèses essentielles et, semble-t-il, contestables, sous-tendent ces prédictions.
Encore trop risquées ?
Une première hypothèse concerne le fait que les IA soient adoptées rapidement et massivement. Notre étude date certes de 2020, mais nous y observions, comme d’autres travaux plus récents aux États-Unis, que l’adoption de l’IA est en réalité très limitée. Quelle que soit la technologie d’IA considérée, elle ne concernait jamais plus de 13 % des entreprises.
Si les entreprises restent peu nombreuses à exploiter ces technologies si prometteuses, c’est avant tout en raison de la difficulté à dénicher les compétences nécessaires, et du coût de leur mise en œuvre. Viennent ensuite les barrières liées à la technologie elle-même : manque de fiabilité ou d’intelligibilité, infrastructure informatique insuffisante, ou manque de données exploitables.
ChatGPT et consorts peuvent paraître moins complexes à déployer en entreprise que d’autres systèmes d’information. Mais la facilité de prise en main des outils à l’échelle individuelle ne se retrouve par à l’échelle de l’organisation. Ils restent difficiles à mettre en œuvre dans des processus complexes et des risques liés à leur manque de fiabilité demeurent. Air Canada, contrainte par un tribunal d’honorer une politique tarifaire inventée de toutes pièces par son chatbot, en fit les frais récemment. Or, dans bien des domaines en entreprise, la marge d’erreur acceptable est très faible : qui serait prêt à monter à bord d’un avion dont le pilote automatique se tromperait une fois sur cent ?
Sitôt adoptée, une IA qui dope la productivité ?
La seconde hypothèse associe adoption de la technologie numérique et croissance de la productivité. La longévité de cette croyance peut étonner alors que le paradoxe de la productivité, énoncé par Robert Solow dès 1987 n’a toujours pas été démenti, excepté pour quelques-unes des dernières années du XXe siècle. Solow observait à l’époque que l’on voyait l’ordinateur partout sauf dans les statistiques de productivité. Les choses n’ont pas vraiment changé, y compris avec l’IA durant les années 2010.
Les tentatives d’explication du paradoxe de Solow, dont sa version actuelle, incluant l’IA, sont diverses. Un élément récurrent dans ces réflexions réside dans le fait que technologie numérique et capital organisationnel seraient complémentaires. Cela revient à dire que la technologie produit très peu d’effet sans les compétences et adaptations organisationnelles nécessaires à leur plein potentiel. Or peu d’entreprises parviennent à les acquérir.
[Déjà plus de 120 000 abonnements aux newsletters The Conversation. Et vous ? Abonnez-vous aujourd’hui pour mieux comprendre les grands enjeux du monde.]
Quelques études récentes ont malgré tout mis en évidence un effet très substantiel des agents conversationnels dans différents contextes : 40 % de productivité gagnée grâce à ChatGPT dans des tâches de rédaction, 14 % dans un centre d’appel, ou encore 25 % au sein d’un célèbre cabinet de conseil. Mais toutes ces études n’ont mesuré l’effet de l’IA que sur quelques tâches discrètes bien définies. Il n’existe, à l’heure actuelle, aucune preuve que ces effets ponctuels se traduiront par des gains de productivité à l’échelle de l’entreprise ou de l’économie dans son ensemble.
Il se pourrait même que la technologie fasse perdre d’un côté ce qu’elle permettrait de gagner de l’autre. Une autre étude récente démontre que la productivité des développeurs a augmenté quand l’Italie a décidé d’interdire ChatGPT dans le pays du jour au lendemain. Les auteurs de l’étude concluent que l’important gain de temps dans la production de code permise par l’IA avait été éclipsé par une explosion plus importante encore du temps nécessaire à sa vérification et à sa correction.
On peut ainsi spéculer que derrière le paradoxe de Solow se cache un phénomène sournois : le numérique permet souvent d’automatiser des tâches, mais en générant davantage de tâches de contrôle, de réconciliation ou d’encodage, bref, de bureaucratie.
Une substitution à l’humain ?
Pour que la technologie détruise l’emploi, il faut encore, troisième hypothèse, que les gains de productivité qu’elle engendre viennent se substituer au travail humain. Là encore, les choses sont plus nuancées.
Malgré les investissements massifs dans la technologie numérique depuis 40 ans, les taux de chômage dans les pays de l’OCDE ont retrouvé en 2023 leurs plus bas niveaux historiques sur la même période. Auparavant, alors qu’une crainte du même ordre s’exprimait, les emplois massivement détruits dans l’agriculture ont été plus que remplacés par de nouveaux postes dans l’industrie puis dans les services.
Deux effets se conjuguent pour produire ce résultat. D’une part les emplois forment des ensembles sophistiqués de tâches dont certaines seulement peuvent être ponctuellement automatisées. La technologie modifierait ainsi la structure et le contenu des emplois plus qu’elle ne les détruit. D’autre part, la technologie engendre de nouveaux métiers, comme le montrent les travaux de David Autor, économiste américain, professeur au MIT.
Un enjeu d’équité
Il n’en reste pas moins que l’impact de l’IA dépendra de la manière dont elle est déployée. Erik Brynjolfsson, également professeur à Stanford, souligne à juste titre la différence fondamentale entre les applications de l’IA qui automatisent les tâches et peuvent donc substituer une partie de l’emploi, et celles qui augmentent les compétences humaines, c’est-à-dire qui permettent aux travailleurs humains d’accomplir plus que ce qui serait possible sans technologie.
À se focaliser uniquement sur les premières, il ne faudrait pas oublier que l’IA peut mettre à la portée de travailleurs moins qualifiés des tâches qui leur auraient été inaccessibles sans la technologie. L’automatisation des unes est souvent l’augmentation des autres. La banque en ligne ou les caisses automatiques des supermarchés reviennent, par exemple, à déplacer le travail de l’employé vers le client. De même, ChatGPT peut permettre à quiconque de rédiger un contrat dans un langage juridique impeccable ou de produire du code informatique.
Le risque principal découlant de la technologie n’est en somme pas la destruction de l’emploi mais la redistribution des rôles et de la valeur. Les différentes études de ChatGPT évoquées ci-dessus partagent une observation importante : les gains de productivité ont à chaque fois concerné les travailleurs les moins qualifiés ou performants alors que les plus expérimentés stagnaient, voire perdaient en efficacité en adoptant l’IA. Cette observation inspire un certain optimisme à David Autor qui en conclut que l’IA pourrait justement aider à restaurer la classe moyenne en démocratisant les emplois à valeur ajoutée et en lissant la prime aux plus hautes qualifications.
Ajoutons à ce tableau le vieillissement de la population, la diminution parallèle de la part des actifs dans la population et l’ampleur des défis auxquels nous faisons face : transition écologique, infrastructures vertes et numériques à construire, santé et soins aux aînés, formation, sécurité et défense… La question n’est alors pas de savoir s’il restera assez de travail pour tout le monde, mais si l’IA sera suffisamment puissante pour démultiplier la productivité du travail à la hauteur des besoins.
La technologie ne peut garantir à elle seule ni la croissance, ni le partage de la prospérité. Elle nous offre en revanche une opportunité unique de rebattre les cartes, à condition d’en faire bon usage.
Nicolas van Zeebroeck, Professeur d'économie et stratégie numériques, Université Libre de Bruxelles (ULB)
Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.