Rapport #FranceIA : point et contrepoints

Temps de lecture : 14 minutes


Le rapport #FranceIA

Pendant deux mois, au début de l’année 2017, chercheurs, entreprises, startups et acteurs institutionnels se sont réunis pour contribuer à définir les grandes orientations de la France en matière d’intelligence artificielle. Le 21 mars 2017, un rapport de synthèse de ces travaux était remis au gouvernement à la Cité des Sciences et de l’Industrie1.

L’Intelligence Artificielle fait partie des rares technologies devenues affaire d’Etats. On se souvient ainsi de la déclaration de Vladimir Poutine, début septembre : « L’intelligence artificielle est l’avenir non seulement de la Russie, mais de toute l’humanité ». Et peu avant la fin de son mandat, Barack Obama était invité par le magazine Wired à dialoguer sur ce sujet avec Joi Ito, Directeur du MIT2. Comme bien souvent, on ne peut qu’être frappé par sa connaissance du sujet, par la simplicité et la capacité d’entrainement de ses analyses. Nous ferons donc écho à quelques aspects du rapport #FranceIA avec ses propres propos.

Du vocabulaire

Le premier problème que pose « l’Intelligence Artificielle » c’est son nom, qui fut proposé dans les années 1950 par John McCarthy : nous sommes encore dans ce moment linguistique où cette expression peut être appréhendée de façon intuitive par chacun d’entre nous sans que nous ayons encore la moindre idée de ce dont il s’agit vraiment. « L’intelligence » est un concept vague, jamais vraiment saisi par la philosophie, et que nous appliquons aussi bien à la lampe, à la voiture, à la plante, à l’animal : il est d’usage libre.

Quant à l’artificialité, elle peut aussi bien caractériser un artefact qu’un principe algorithmique voire une falsification, un « fake », un trompe-l’œil ou plutôt un « trompe la raison ». Bref, le terme « Intelligence Artificielle » ouvre la fenêtre à tous les vents de l’imagination. Le rapport #FranceIA souligne d’ailleurs le problème à sa façon :

L’expression « intelligence artificielle » possède un pouvoir d’évocation qui explique sans doute en partie les fantasmes qui y sont associés.

Dès lors nous sommes obligés, quand nous travaillons le sujet, de distinguer « l’IA faible » de « l’IA forte », ou encore, comme le dit lui-même Barack Obama, « l’IA générale » de « l’IA spécialisée », grosso modo l’IA « basique » qui allume une lampe ou reconnaît un visage de l’IA « vraiment » intelligente et d’application générale, quoiqu’on entende par là.

Nous suggérons pour notre part de distinguer les techniques dites « d’Intelligence Artificielle » (systèmes experts, réseaux neuromimétiques…) et l’intelligence artificielle « proprement dite », qui devrait être réservée à la spéculation et qui reste entièrement à définir, que ce soit par l’usage ou par la poursuite d’une réflexion épistémologique.

Il s’agit donc en premier lieu de procéder à une reprise linguistique et pédagogique. Car pour le moment, « grâce » à la presse qui fait souvent commerce de ces ambiguïtés, le citoyen ne retient qu’une chose : son intelligence est sur le point d’être dépassée et son boulot au seuil de la disparition… Il est urgent de mettre un terme à cette rhétorique anxiogène comme il faut décoder les abominations anthropomorphisantes du genre3 :

Même si l’intelligence artificielle (IA) est plus rapide et plus compétente que les humains, elle n’est pas encore parvenue à surmonter les préjugés. En fait, les ordinateurs peuvent avoir autant d’idées préconçues que les humains.

Le gouvernement a évidemment un rôle central à jouer pour éduquer et réguler ces discours (le groupe de travail « formation » fait quelques recommandations à ce sujet).

Des moyens

Barack Obama rappelle nos préoccupations sans détours :

Correctement développée, [ l’intelligence artificielle ] peut créer énormément d’opportunités et de prospérité. Mais il faut en même temps envisager ses inconvénients en termes de suppression d’emplois. Elle peut accroître les inégalités.

C’est pourquoi il s’agit bien d’une affaire d’États. Voici comment l’ex-Président envisage le rôle du gouvernement américain :

Ce que je pense des dispositifs de régulation, alors que l’IA émerge, c’est qu’à l’aube d’une technologie, un millier de fleurs doivent pouvoir éclore. Le gouvernement doit rester relativement discret, investir massivement dans la recherche et assurer qu’une bonne communication s’établit entre la recherche fondamentale et la recherche appliquée. Dès lors que les technologies émergent et deviennent matures, il devient plus délicat d’envisager comment elles doivent s’intégrer dans les structures de régulation existantes, et le gouvernement doit alors s’impliquer un peu plus. Pas nécessairement pour contraindre les nouvelles technologies à respecter le cadre existant mais plutôt pour s’assurer qu’elles respectent, par les dispositifs de régulation, un large ensemble de valeurs de base. Sinon, il se pourrait qu’elles désavantagent certains individus ou certains groupes.

Que de nuances, assez loin du branle-bas de combat français… La question des acteurs de cette réflexion reste entièrement ouverte. Le journaliste de Wired s’interroge et demande notamment où doit se situer le cœur de la recherche aux États-Unis, s’il doit même y en avoir un. C’est Joi Ito (directeur du MIT) qui répond :

Il me semble que le MIT prétendrait que ce devrait être le MIT… [ sérieusement ] Si l’histoire s’était répétée, cela aurait dû être un groupe de chercheurs financés et aidés par le gouvernement. Mais pour le moment, la plupart des laboratoires à plus d’un milliard de dollars sont privés.

Joi Ito évoque évidemment les GAFAM. En France, le CNRS, l’INRIA… sont incontournables. On trouve également de nombreuses startups. Mais nous ne disposons d’aucun « laboratoire à un milliard de dollars », encore moins privé, et les quelques entreprises majeures du secteur du numérique sont à peine représentées, si ce n’est par l’intermédiaire de leurs syndicats et fédérations. Mais poursuivons avec Obama :

Nous connaissons les gars qui financent [ ces laboratoires ] et si vous parlez avec Larry Page [ Google ] ou avec d’autres, leur attitude, compréhensible, est la suivante : « la dernière chose que nous voulons, c’est qu’une bande de bureaucrates nous ralentisse alors que nous chassons la licorne ».

Aux États-Unis on ne se pose plus vraiment la question : les acteurs systémiques sont là et mènent la danse. En France, ajouter une couche de startups sur un système qui a toujours peiné à financer et à négocier les grands virages technologiques est une des seules réponses possibles mais c’est un pis-aller (les acteurs de #FranceIA en sont visiblement conscients). Barack Obama n’est cependant pas, comme on peut s’en douter, un admirateur de la méthode des milliards privés. Il souhaiterait que les États-Unis puissent, en tant que nation, y consacrer des moyens financiers considérables parce qu’il estime l’intelligence artificielle en mesure de transformer nos sociétés et de résoudre de nombreux problèmes.

Il compare les besoins à l’ordre de grandeur du programme de conquête lunaire : 80 milliards de dollars par an. Cet ordre de grandeur est accessible aux seuls GAFAM aujourd’hui, si bien qu’il s’interroge :

Une partie du problème tel que nous le voyons c’est que notre engagement en matière de recherche fondamentale, en tant que société [ civile ], a diminué. Notre confiance dans l’action collective s’est émoussée, en partie pour des raisons idéologiques et rhétoriques.

C’est-à-dire pour la raison que nos sociétés se sont financiarisées et mondialisées, pour le meilleur et pour le pire. Mais les États-Unis ont la Silicon Valley qui, avant d’être une concentration de laboratoires et de talents, est une énorme concentration de moyens. Une « Silicon Valley » à la française n’a, de ce point de vue, pas beaucoup de sens.

Les moyens disponibles en France et en Europe, qu’ils soient publics ou privés, sont à ce jour incompatibles avec les problèmes que l’on prétend adresser, au niveau où on prétend les adresser.

Des données

La prolifération rapide des applications des techniques d’IA (techniques qui, pour la plupart, dormaient dans un tiroir depuis quelques dizaines d’années) est liée à l’accroissement massif des données disponibles. Le rapport #FranceIA souligne ainsi à juste titre que les données sont bien plus stratégiques que les algorithmes.

C’est ennuyeux parce que nos forces et nos moyens résident principalement dans les mathématiques et l’algorithmique, dont les résultats sont… publics et open source, c’est-à-dire joyeusement partagés. Il est assez logique que Google et Facebook, entre autres, promeuvent un partage « altruiste » des résultats, y compris des leurs : ils sont capables de les valoriser immédiatement avec leurs bases de données gigantesques. Mais s’ils devaient réaliser une rupture technique majeure, elle ne serait probablement pas « open sourcée »… La question de la protection de nos propres recherches n’est donc pas hors de propos bien qu’elle soit absente du rapport.

Le second souci est que nous ne disposons pas, en France, de plateformes de données significatives. Le rapport #FranceIA préconise par conséquent d’en créer (au moins sur des sujets thématiques : finance, médecine…) et de mettre en place des infrastructures communes d’entrainement des programmes d’IA, de développer des projets « aux interfaces ». C’est encore un peu fouillis mais nul doute qu’il faut faire quelque chose de cet ordre, comme il s’agira aussi de certifier certains programmes d’IA sur des bases de données publiques.

Mais pendant ce temps-là, les grandes plates-formes mondiales, américaines et chinoises, continuent d’amasser des données et de les valoriser par de l’IA déjà là. Il y a donc un problème de momentum. Cette compétition, déjà très inégale, est rendue encore plus difficile par l’aporie bien connue : comment développer une économie de l’intelligence artificielle dépendant de données massives tout en développant un environnement réglementaire garantissant la « protection » de nos données ? Cette aporie est transformée en « enjeu » par l’un des groupes de travail #FranceIA :

L’enjeu est d’arriver à protéger la vie privée tout en tirant parti du potentiel de l’IA qui suppose d’avoir accès à ces données.

Disons-le simplement : dans une économie d’acteur privés, il faut choisir. C’est grosso modo l’un ou l’autre. Barack Obama esquisse malgré tout une sorte de compromis :

Si le gouvernement aide et finance la collecte de données, cela ne veut pas dire que nous les amassons ou que les militaires en disposent. Prenons un exemple concret : en matière de médecine de précision, une partie de notre projet est de récolter une base de données de génomes humains provenant d’un nombre suffisant d’américains. Mais, au lieu de donner de l’argent à Stanford ou Harvard, qui auraient alors stocké chez eux tous les échantillons, nous disposons de cette base génétique à laquelle tout le monde a accès. Il y a un ensemble partagé de valeurs, une architecture commune, pour garantir que la recherche est partagée plutôt que monétisée par un groupe.

Le rapport #FranceIA préconise d’aller dans le même sens : un espace public des données. Mais cela n’est valable que dans certains domaines, encore contrôlables par l’État car relevant de la santé publique ou de la sécurité, par exemple. Pour les données en général, celles qui circulent dans nos machines personnelles, nos smartphones, nos assistants, nos objets connectés, il n’existe pas d’équivalent. Pour avoir le beurre (une économie développée de l’IA) et l’argent du beurre (la protection des données), il faudrait quelque chose comme un service public des données en général. C’est évidemment totalement illusoire, les infrastructures elles-mêmes (réseaux, serveurs…) étant privées. Et ce ne sont même pas des concessions…

De l’emploi

Comme le dit Barack Obama :

La plupart des gens ne passent pas leur temps à s’inquiéter au sujet de la singularité4. Ils s’inquiètent de savoir : « Alors, mon job, va-t-il est remplacé par une machine ? ».

Sur ce sujet le rapport #FranceIA manifeste une certaine nervosité, naturelle dans un pays où le chômage est le premier sujet de préoccupation, et déroule une analyse qui semble parfois prématurée. Cette problématique est mondiale et de nombreuses analyses ont été menées pour calculer le nombre de jobs qui seront perdus et remplacés par l’IA. La plupart des chiffres, assez inquiétants, relèvent du doigt à peine mouillé et n’ont pas d’autre intérêt que d’ébranler les consciences. Il est difficile d’y voir vraiment clair quand le discours ambiant oscille entre le catastrophisme et le classicisme de la « destruction créatrice ».

Le rapport #FranceIA dépassionne la question en l’abordant de façon très rationnelle et très « ellulienne » (Jacques Ellul et le système technicien): on opère une découpe des métiers par tâches et c’est au niveau des tâches substituables par l’IA que l’on raisonne. Logique et raisonnable ! Il ne resterait qu’à renforcer nos compétences sur les tâches non substituables, celles demandant des « capacités cognitives horizontales », de « l’intelligence émotionnelle », une « intervention manuelle complexe » ou bien encore, plus étonnant, celles dont l’automatisation ne serait pas « acceptable socialement ».

Mais cette vision très analytique et « couesque » de nos futurs jobs risque à tout moment d’être invalidée par un Système Technicien qui déploie inexorablement, comme d’habitude, ses problèmes et ses solutions sans s’inquiéter de critères d’acceptabilité sociale, d’intelligence émotionnelle, etc. En deux mots : nous verrons bien et ce ne sera pas nécessairement le principal problème.

Au sujet de l’accès à l’emploi et à la rémunération, le gouvernement doit prendre en compte des conséquences autrement plus sévères que celles portant sur la « gestion prévisionnelle des emplois et des compétences », et qui relèvent pleinement, pour le coup, des politiques publiques. Écoutons à nouveau Barack Obama (nous soulignons) :

J’ai tendance à être optimiste : l’histoire nous montre que nous avons toujours intégré les nouvelles technologies ; les gens découvrent de nouvelles opportunités de travail, ils bougent, et nos standards de vie croissent en général. Mais je pense que nous vivons un moment un peu différent maintenant, simplement à cause de la capacité de l’IA et d’autres technologies à envahir tous les domaines. Les gens très qualifiés se débrouillent bien dans ce contexte. Ils peuvent utiliser pleinement leurs talents, ils savent utiliser les machines pour augmenter leur influence, leurs ventes, leurs produits et services. Les individus peu qualifiés, mal payés, deviennent superflus. Leurs jobs ne seront peut-être pas remplacés mais leurs revenus peuvent s’effondrer.

Voilà la vraie question : non pas celle du grand remplacement, tâche à tâche, mais celle des inégalités et des fractures à venir, très peu pensées lorsque survient une rupture technologique majeure, l’essentiel étant de sauvegarder la compétitivité et l’emploi.

Si 2 milliards d’individus ont un compte Facebook, 5 milliards n’en n’ont pas. Si la moitié des terriens sont connectés, l’autre ne l’est pas. Si un groupe a le « contrôle » de l’IA (les plus « qualifiés » d’Obama), un autre sera contrôlé par ceux qui contrôlent l’IA tandis qu’un autre sera totalement exclu du jeu : quelles en seront les conséquences ? Quelles pourront être les forces de résistance ?

De la responsabilité

L’IA pose une question inédite de responsabilité. Dès lors que l’on devient techniquement en mesure de déléguer à des artefacts des activités de décision ou de réaction à une prévision (conduire une voiture, accorder un crédit, négocier des titres, diagnostiquer une maladie…), que reste-t-il de notre responsabilité ? Où reste-t-elle engagée ? Il y a là une question mais elle est pour le moment à peine saisie et cette saisie, dans le rapport #FranceIA, est très « RH ». Par exemple :

[…] il est nécessaire d’amener le travailleur à coopérer en synergie avec la machine, de le faire participer au processus décisionnel et de lui conférer un rôle susceptible d’engager sa responsabilité en sollicitant l’engagement personnel et la mobilisation subjective dans le processus de travail.

Mais « coopérer avec la machine », « le faire participer au processus décisionnel », « solliciter l’engagement personnel », « mobiliser sa subjectivité » sont des injonctions théoriques qui relèvent de précautions assez compréhensibles mais plutôt loin du sujet.

En fait, le système tend à remplacer l’homme par la machine, autant que faire se peut, jusqu’à extinction des possibilités, à le désengager de processus décisionnels, car bien souvent les décisions humaines sont sous-optimales (La machine de Dalio). Par conséquent, l’homme n’aura aucun intérêt, au contraire, à risquer un « engagement personnel » alors que toutes les (mauvaises) conséquences de (mauvaises) décisions pourront être attribuées à un artefact. Au contraire, il aura en général tout intérêt à chercher le « désengagement personnel ». Pour les mêmes raisons, il aura intérêt à laisser de côté sa subjectivité dès lors qu’une machine assume « la sienne propre ».

En matière de responsabilité, seule la question du droit nous semble devoir être livrée à la réflexion politique. Elle est abordée dans le rapport #FranceIA mais nous ferons de cette réflexion (profane) un article à part.

De l’éthique

Sur ce sujet déjà évoqué (Un futur sans nous), nous ne sommes pas très bien partis pour une raison assez simple : l’éthique nous est livrée par les protagonistes du jeu, qui ont tout intérêt à préempter le sujet avant d’être soumis à un « recadrage ». C’est une posture mondiale, en l’occurrence (Asilomar), malheureusement assez bien relayée dans le rapport #FranceIA :

Certaines valeurs doivent être prises en compte dès la phase de conception technologique et intégrées dans celle-ci (“value by design”).

Cette expression est probablement inspirée du « privacy by design » de la nouvelle réglementation européenne. Mais, si « privacy by design » a une traduction dans la technique, la technologie n’intègre aucune « valeur » au sens de « valeur éthique ». Ces « valeurs » (lesquelles, d’ailleurs ?) sont éventuellement conférées par l’usage, par la finalité, etc. mais il est peu probable d’en trouver la trace dans le design. Poursuivons la lecture :

L’éducation des ingénieurs à la réflexion éthique, par toutes les méthodes pédagogiques y compris le développement d’un code d’éthique, est nécessaire pour encadrer le développement et la production des systèmes d’IA. […] Cette réflexion éthique des ingénieurs doit être fondée sur les principes de bienfaisance ou non malfaisance, d’autonomie et de justice ainsi que sur les principes et valeurs consacrés dans la Charte européenne des droits fondamentaux. Pourquoi pas une déontologie des ingénieurs en IA ?

Parce que ! Et cette explication pourrait bien suffire..

On retrouve ici une vieille rengaine liée à une vague et inutile culpabilité. L’ingénieur est loin de disposer du rôle qui lui permettrait de décider en matière d’éthique, et heureusement. Il existe bien sûr quelques domaines techniques encadrés par des règles d’éthique parce que leur finalité soulève naturellement ces questions (la médecine par exemple). L’intelligence artificielle posera sans aucun doute, dans certains domaines d’application, des questions d’éthique (pensons, par exemple, à la prédiction comportementale). Mais vouloir encadrer d’éthique (laquelle ?) une technologie dont le rapport lui-même souligne qu’elle est pervasive et générale (donc neutre) n’a pas de sens.

De la suite

Une expression politique suivie de politiques publiques est évidemment nécessaire. Mais il faut faire la part entre les sujets qui relèvent d’un déterminisme technologique comme, par exemple, celui de l’adaptation de nos métiers, de ceux qui exigent une action et des moyens publics (au niveau européen). Il y a déjà tant à faire en matière de communication, d’éducation, de formation, de réglementation, de certification, de résorption des inégalités numériques…

Le rapport dresse des constats assez lucides mais aborde principalement la question de l’intelligence artificielle en France sous l’angle de la compétitivité et de la préservation des emplois et donc de déterminismes technologiques. Il faut le faire, mais faute d’équilibrer la réflexion avec des acteurs venant de la sociologie, de la philosophie, de l’économie, voire de la société civile (il faudrait aussi accepter un dialogue constructif avec les « contrariens » ou les « réactionnaires », de suivre le chemin étroit et exigeant de la dialectique), nous allons manquer notre cible : nous deviendrons une « AI nation » à la condition nécessaire (mais pas suffisante) que l’intégration de cette technologie soit pensée et menée avec tous, car c’est à partir d’une société qui intègre totalement et harmonieusement les usages de l’IA que nous pourrons développer de vrais champions mondiaux de l’IA.

Affirmons pour finir qu’il restera toujours en l’homme quelque chose qui excédera tout artefact, aussi intelligent soit-il (bien que nous n’en n’ayons pas encore de preuve formelle…). Barack Obama l’évoque à sa manière :

Quand j’étais enfant, j’étais dingue de Star Trek […]. Ce qui a permis à la série de durer c’est que cela ne traitait pas à proprement parler de technologie. Il s’agissait de valeurs et de rapports humains. Les effets spéciaux étaient nuls mais cela n’avait pas d’importance parce que cela parlait de notre humanité et de la confiance en notre capacité à résoudre des problèmes.

Traduction française exigée ! Mais traducteurs pas encore identifiés…


Version pdf : Rapport #FranceIA – point et contrepoints


1. On peut télécharger le rapport de synthèse et le rapport des groupes de travail ici : Rapport France IA hébergé sur le site du Ministère de l’Économie. Les citations proposées dans l’article proviennent toutes du rapport des groupes de travail. Pour avoir un résumé du contenu du rapport #FranceIA, on peut parcourir l’article de Sébastien Gavois publié sur Next INpact (promotion de la « petite » presse) : #FranceIA : les enjeux de l’intelligence artificielle, entre fantasmes et craintes
2. Scott Dadish pour Wired – août 2016 – Barack Obama, neural nets, self-driving cars, and the future of the world
3. Jennifer Goforth Gregory pour Wired – L’intelligence artificielle a t-elle des préjugés ? (lien rompu)
4. La « singularité », c’est ce moment où l’IA doit devenir supérieure à l’homme, pour résumer. C’est la « gourou-ification » du sujet poussée à l’extrême.

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.