Blog Anvie

Intelligence artificielle: quels impacts sur le travail et l’emploi ?

De Nicolas Treuvey

Le vendredi 12 avril 2024

L'Anvie a récemment organisé une formation consacrée à l'impact de l'IA sur le travail  et l'emploi : animée par Yann Ferguson, Directeur scientifique du LaborIA (Inria), elle a permis de dresser un panorama des risques et des opportunités liés à l'arrivée rapide des IA génératives dans le monde du travail. 18 mois après le déploiement de ChatGPT, où en sommes-nous ?

L’IA est-elle devenue employable ?

Ce n’est pas la première fois que l’on nous annonce une révolution de l’IA. Dès les premiers travaux autour de cette technologie, à la fin des années 50, certains ont estimé que les machines nous remplaceraient à moyen terme. Cette prédiction ne s’est jamais réalisée, et ce pour plusieurs raisons.

 

 

A l’opposé, il est difficile de faire faire à une machine ce qui, pour nous, va de soi. Nous savons faire notre lit ; décrire précisément et exactement comme nous le faisons est très difficile. Ce paradoxe dit de Moravec met en lumière le fait que nous bénéficions de compétences solidement ancrées dans notre inconscient, car fruit de l’expérience de milliers de générations.

 

La conduite autonome a été la première innovation ayant de rompre avec ce paradoxe de Moravec. Conduire est une activité simple mais difficilement décrivable – donc difficilement copiable par une machine. Or celle-ci s’est révélée capable de conduire (presque) comme nous. Pourquoi ?

Parce que grâce aux données, grâce à l’apprentissage machine, l’IA obéit depuis 2010 à une nouvelle approche dite connexioniste : la machine peut aller chercher ce que nous ne parvenons pas à décrire en exploitant des données et, surtout, en établissant des connexions et des corrélations entre elles. La machine parvient à aller chercher l’indicible. De nombreux experts en ont conclu que l’IA allait devenir employable et travailler à notre place, avec des conséquences sociales énormes. Certaines études, menées à partir de 2010, tendaient aux mêmes conclusions, mais sur la bases de méthodologies discutables.

 

Ainsi de la fameuse étude menée en 2013 par Frey et Osborne : 47% des emplois américains se situaient dans une probabilité haute d’automatisation à horizon 10-20 ans. Les auteurs estiment que les métiers répétitifs, routiniers, seraient les plus exposés. Là où nous devons faire appel à notre intelligence sociale ou créative, nous serions protégés.

Des conclusions largement remises en cause dix ans plus tard : l’IA a connu les progrès les plus significatifs dans la reconnaissance et la génération d’images, dans la modélisation du langage, dans la compréhension de textes, dans les jeux de stratégie… Autant d’activités à très forte valeur ajoutée et où la routine est largement absente ! Ce sont donc les cols blancs qui semblent aujourd’hui menacés par l’IA, contrairement aux agents de nettoyage, aux manœuvres, aux éboueurs, etc.

Travailler avec l’IA

Une chose est certaine néanmoins : l’IA est là, et bien là. Rester à savoir si la complémentarité avec l’humain sera « capacitante » ou « aliénante » pour reprendre les termes du rapport Vilani.

Pour tenter de répondre à cette question, l’OCDE a mené une enquête dans le secteur de la finance et dans celui de la production manufacturière : les salariés les plus épanouis sont ceux qui travaillent sur l’IA. Ceux qui travaillent avec l’IA, ceux qui sont managés par l’IA, ceux qui managent les salariés qui travaillent avec l’IA sont beaucoup moins heureux.

Cette question du management du travail au temps de l’IA est centrale : c’est d’ailleurs le premier objet des études menées par LAborIA, un centre de ressources et d’expérimentations sur l’intelligence artificielle dans le milieu professionnel. Cette structure française pointe plusieurs risques, et plusieurs points de vigilance.

Comment parvenir à une IA vraiment responsable ?

  • Les résultats issus d’une IA doivent être explicables. Ce n’est pas encore toujours le cas, loin de là.
  • Les machines sont toujours biaisées car conçues par des humains eux-mêmes soumis à des biais extrêmement puissants. Par exemple, une IA a beaucoup de mal à produire l’image d’un médecin noir car les images, sur internet, représentent avant toute chose des médecins blancs…
  • A trop vouloir être inclusives et représenter l’humanité dans toute sa diversité, les IA produisent des résultats aberrants, non-conformes à la réalité. L’inclusion à tout prix l’emporte sur le réel.
  • Une IA n’analyse pas le réel, mais des données, des pixels. Elle peut même faire des erreurs particulièrement grossières – elle n’est pas encore fiable.
  • L’empreinte carbone, particulièrement forte, est peu débattue.

L’IA générative et ChatGPT

2023 a été marquée par la mise en service de ChatGPT 3.5, accessible par tout un chacun chez soi ou en entreprise. Or ChatGPT ne correspond pas aux critères de l’UE en matière d’éthique « pour une IA digne de confiance ». Confidentialité et gouvernance des données, transparence, robustesse technique, non-discrimination, responsabilité… Rien ne va dans ChatGPT, à tel point que l’on peut parler d’une IA indigne de confiance. C’est, pour autant, une révolution : 20% environ des travailleurs l’ont déjà utilisé dans leur activité... et 68% d’entre eux ne l’ont pas dit à leur manager ou à leur employeur.  Ce qui est particulièrement anxiogène pour les dirigeants dont la fonction est, entre autres choses, de choisir et de déployer les « bons » outils.

ChatGPT a atteint les 100 millions d’utilisateurs en deux mois : du jamais vu. L’adoption a été spontanée, rapide, tant l’outil fascine. En effet, l’IA générative libère des usages, potentialise les individus et, surtout, part du travail réel.

Vers une IA de confiance

Pour construire une IA éthique, il est indispensable de construire une IA digne de confiance.La proposition de réglementation européenne du 21 avril 2021 prévoyait la stratégie suivante :

Mais l’arrivée de ChatGPT a rebattu les cartes. D’aucuns envisagent de réguler non plus les usages, mais les technologies elles- mêmes, redessinant une ligne de crête entre la défense des valeurs de l’innovation et la régulation. La France s’est plutôt positionnée du côté de l’innovation, et pourrait aller vers un modèle similaire à celui de l’autorisation de mise sur le marché pour les médicaments.

S’agissant de l’avenir du travail, une analyse technique critique est indispensable pour comprendre collectivement la façon dont l’IA peut être utilisée sur le lieu de travail, pour renforcer l’autonomie des travailleurs et accroître la productivité. De nombreux projets sont en cours, pour faire remonter les bonnes pratiques. Et le Hub France IA propose un outil d’évaluation de la maturité éthique de son organisation en matière d’IA.

PARTAGEZ !