D’où viennent les peurs suscitées par le développement et la généralisation des intelligences artificielles (IA) ?
GRÉGORY RENARD : Je pense que l’imaginaire actuel autour des IA provient de ce que l’on a pu voir dans les productions cinématographiques d’Hollywood : Terminator, 2001 : l’Odyssée de l’espace… Ces fictions ont créé une vision de l’humanité très catastrophiste par rapport à ces IA. Or, aujourd’hui, j’ai du mal à croire à un Terminator qui viendrait dans notre jardin pour nous détruire. En revanche, la perspective d’une civilisation à deux vitesses, avec des travailleurs qui deviennent des esclaves intellectuels et cognitifs représente un futur peu souhaitable, mais plus probable.
De quelle nature sont ces peurs ? Peut-on les cartographier ?
G. R. : Elles sont nombreuses, légitimes et toutes en lien avec l’idée d’automatisation de la prise de décision permise par le machine learning. Pour commencer, nous pouvons évoquer l’angoisse majeure à propos de potentielles destructions d’emplois. Pour comprendre ce point particulier, je renvoie toujours à l’Histoire et aux précédentes grandes révolutions : le feu, l’industrialisation, l’électricité… toutes ont provoqué de grands débats et réveillé des peurs similaires.
Ensuite, je pense que le débat public s’est beaucoup focalisé sur la question des armes autonomes et sur celle de la protection de la vie privée. C’est la raison pour laquelle la mise en place de la Réglementation générale sur la protection des données va marquer un tournant en France.
Certains pointent également du doigt un potentiel déséquilibre des puissances mondiales, entre d’un côté les GAFAM (Google, Amazon, Facebook, Apple, Microsoft)/BATX (Baidu, Alibaba, Tencent, Xiaomi) et de l’autre côté le reste du monde.
Pour ma part, la chose qui me fait le plus peur c’est le facteur temps ! Aujourd’hui nous sommes déjà dans l’ère de l’IA et de l’industrialisation des tâches cognitives : la révolution industrielle s’est passée sur environ trois ou quatre décennies, l’actuelle est en cours sur une échelle de trois à quinze ans. Il faut passer à l’action ! La France et l’Europe ne doivent pas prendre plus de retard.
Certains, comme le chirurgien-urologue Laurent Alexandre, pointent du doigt les responsabilités gouvernementales dans le « retard » actuel de la France et de l’Europe…
G. R. : C’est possible, en effet. C’est pour cela que seule l’éducation nous permettra de sortir par le haut de la révolution promise par l’IA. Toute conférence en ligne, tout article qui vient démystifier les informations mortifères qui circulent permet d’accélérer le processus d’acculturation de ces enjeux. Les journalistes ont également un rôle fondamental à jouer. S’ils relaient une information objective, positive et constructive, ils feront avancer les choses ! Il faut à tout prix que les gens soient informés et parviennent à comprendre les opportunités qu’il y a à embrasser l’IA : pour eux, pour leur entreprise et pour leur pays.
Quelles seraient les premières actions à lancer ?
G. R. : J’appelle à une transformation radicale du système pédagogique. Il faut promouvoir les systèmes scolaires alternatifs de type école 42 ou Holberton School à San Francisco. Je suis assez actif auprès de ces écoles – avec la communauté du deep learning californienne nous les avons accompagnées dans la préparation des formations sur l’IA. Par exemple, à Holberton School nous avons pensé des cursus de deux ans : au bout d’un an et demi, 50 % de nos élèves avaient trouvé un emploi dans de grosses structures. Ces personnes étaient pour la plupart des débutants. Par ailleurs, ces écoles permettent aux personnes en cours de carrière de se former à ces questions.
Il faut également faire entrer les apprentissages fondamentaux sur l’IA le plus tôt possible dans les programmes scolaires.
En tant que père de deux filles, je suis extrêmement préoccupé par tous les enjeux d’inégalités de genre dans les métiers de l’informatique et de l’intelligence artificielle.
Grégory Renard
Vous défendez donc une vision positive de l’IA, centrée sur l’idée d’une complémentarité entre l’homme et la machine…
G. R. : Je défends en effet l’idée que, demain, les humains seront amenés à collaborer avec les machines : ils devront être créatifs, intuitifs et réaliseront des tâches à forte valeur ajoutée. Les machines seront cantonnées à faire ce qu’elles font excessivement bien : les tâches cognitives répétitives. C’est une démarche schumpetérienne de destruction créatrice.
Dans ce cas de figure, comment envisager la réorientation d’une partie de la population, notamment la moins qualifiée ?
G. R. : J’envisage deux typologies de transformation. Premièrement, il y a les personnes qui vont pouvoir participer à la création des nouvelles structures, à la gestion des algorithmes et des expériences utilisateurs. Ensuite, il y aura des personnes dont la tâche consistera à collaborer avec les machines. Elles seront littéralement des pilotes, un peu comme les opérateurs-machine dans les entreprises industrielles.
Par exemple dans l’équipe de mon entreprise xBrain, nous avons déjà créé deux métiers qui n’existaient pas jusque-là : un « entraîneur d’IA » et un « pilote d’IA ». Le job de ce dernier est d’aller étudier tous les cas de figure dans lesquels la machine est plus performante pour formaliser les nouveaux processus de travail entre l’homme et la machine.
Quels sont les autres défis sociétaux portés en germe par la révolution de l’IA ?
G. R. : En tant que père de deux filles, je suis extrêmement préoccupé par tous les enjeux d’inégalités de genre dans les métiers de l’informatique et de l’intelligence artificielle. Aujourd’hui, ces professions sont quasiment exclusivement masculines, or n’oublions pas que le langage de programmation informatique a été créé par une femme, Ada Lovelace ! Pour moi c’est excessivement important de rétablir un équilibre dans l’accès à ces professions. Par ailleurs, j’estime que l’on peut profiter de ces technologies pour repenser la distribution de la valeur numérique dans la société : c’est un enjeu crucial. On vit actuellement dans une société partagée entre les shareholders (ceux qui détiennent le capital) et les stakeholders (ceux qui travaillent), mais il faut une meilleure redistribution des revenus à l’échelle mondiale.
Ada Lovelace – première programmeuse informatique
Cet article est initialement paru dans le hors-série / programme de la septième édition des Napoleons à Val d’Isère, en Janvier 2018.