Tristan Harris et le marais de l’éthique numérique

Temps de lecture : 17 minutes


Le déferlement de puissance de la technologie de l’information est si soudain (20-30 ans tout au plus) que nous sommes encore stupéfaits et bien à la peine pour élaborer les pare-feu législatifs, politiques et éthiques contre ses effets les plus indésirables. Il y a cependant une très bonne nouvelle : l’émergence d’une préoccupation éthique chez les jeunes ingénieurs. Nous évoquerons ici l’exemple de l’américain Tristan Harris qui a acquis une certaine notoriété en révélant les procédés des grandes entreprises du numérique pour capter notre attention et notre temps. Il fallait bien faire un premier pas et entraîner un mouvement en direction de l’ « éthique ». Mais ses analyses et ses propositions appellent une réponse critique. Il est vrai que ce « marais éthique » qu’il fréquente est redoutable.

Il n’est pas question de traiter ici la question éthique en général mais plutôt d’ouvrir, comme à notre habitude, un chemin fécond pour une prochaine exploration. Nous avons ainsi choisi de répliquer à la posture éthique de Tristan Harris, hardiment tournée vers les valeurs (le « bien », le « mal »…), par une introduction à la bien plus modeste « disclosive ethics ». Cette approche déjà ancienne constitue selon nous un solide ponton sur le rivage de ce marais perfide. Nous établirons pour conclure un premier rapport entre cette question éthique et ces « machines morales » que nous évoquions en 2019. Ce qui suit n’est donc, toujours et encore, qu’un commencement.

Cercles

How do you ethically steer the thoughts and actions of two billion people’s minds every day?

Site web de Tristan Harris

Le message de Tristan Harris, éphémère « design ethicist » chez Google, a toujours été d’une grande simplicité : les entreprises du numérique captent notre attention et nous rendent dépendants. Nous pouvons passer des heures à naviguer et à interagir numériquement sans que le temps semble passer. Nous perdons littéralement notre temps. De là au jugement moral, le pas est aisément franchi. Nous sommes en 2016 (nous soulignons)1 :

Ce qui est mauvais, c’est que nos écrans, en nous « remplissant », tout en nous donnant faussement l’impression de choisir, menacent notre liberté fondamentale de vivre notre vie comme on l’entend, de dépenser notre temps comme on le veut. Et remplacent les choix que l’on aurait fait par les choix que ces entreprises veulent que l’on fasse.

Le discours de Tristan Harris, sans être d’une grande profondeur, fait mouche parce qu’il est porté au bon moment et depuis le bon endroit : la Silicon Valley. Rappelons qu’en 2015-2016, une vague(lette) de dénonciation d’abus et de scandales inaugure là-bas une prise de conscience et déclenche une vague(lette) de regrets, de contritions et de nouvelles vocations. Des ingénieurs très bien rémunérés, chassés et célébrés comme des stars s’aperçoivent soudain que la Silicon Valley n’échappe pas à la banalité du genre humain et que leur travail sert des effets de puissance incontrôlables et parfois « mauvais » … On observe alors, avec un peu d’appréhension et une pointe d’espoir, ces mêmes ingénieurs prendre le problème en main. Si c’est « mauvais », alors il y a un problème à résoudre et par conséquent une solution technique à trouver (et, accessoirement, un business). Donc, selon Tristan Harris, la solution…

Ce serait des technologies qui nous rendraient notre liberté de choix. […] Pour que les technologies nous aident à combler ces besoins humains fondamentaux au lieu de prendre leur place, il faut qu’elles changent. Ce ne sera pas quantitatif comme avoir moins de notifications. Tous ces écrans seraient radicalement différents, ils créeraient, par design, du lien social.

Un « écran » créant « par design, du lien social », ça ne vous rappelle rien… ? Ce raisonnement circulaire et diagrammatique est typique d’une dynamique technicienne qui semble produire de l’innovation mais qui ne délivre plus aujourd’hui, pour l’essentiel, que des répétitions ou des échos de plus en plus puissants. Mundus Numericus est ainsi parcouru de cercles techniques quelque peu vicieux où apparaissent des maux / mots (« menace sur notre liberté fondamentale »), réglés au tour de piste suivant par des solutions / discours (« nous rendre notre liberté de choix »). De cette circulation est donc né ce fragile réveil éthique de Tristan Harris que nous allons maintenant questionner. Tristan Harris est évidemment loin d’être le seul. Il existe bien d’autres adeptes de cette doctrine, y compris ici en Europe, qui croient en la capacité illimitée de la technologie à faire ou à rétablir le « bien ».

Problèmes

La matrice économique exige ceci : tout problème a, maintenant ou plus tard, une solution technique. Rien ne doit être laissé au mystère de la supputation, à l’incertitude de l’événement, au libre-cours du réel… De la même façon que, comme disait François Sureau, « nous nous sommes déjà habitués à vivre sans la liberté », nous nous sommes aussi déjà habitués au « solutionnisme » (deux habitudes par ailleurs repérables dans notre attitude générale face à la pandémie). En tout cas, pour l’économie et le business, l’enjeu n’est pas tant de proposer des solutions que de s’emparer des bons problèmes.

Les problèmes peuvent être approximativement rangés selon deux critères : la « portée » (local → régional → global) et l’ « artificialité » (naturel → supposé → fabriqué – volontairement ou involontairement). Ce que nous appelons « progrès » se mesure, non pas à l’aune du nombre de problèmes résolus, mais plutôt à la progression des problèmes dans la direction local / naturel → global / fabriqué. Nous avons ainsi acquis, à la mesure de notre progrès, la capacité technique de fabriquer de grands problèmes (réchauffement climatique, pandémies, désordres démocratiques…).

Le problème posé par Tristan Harris ressort de cette catégorie ultime : s’agissant des « libertés fondamentales » d’au moins « deux milliards d’individus », il est global ; étant causé par la technologie des plateformes, il est fabriqué. Le « vol » de notre temps est donc le résultat d’un grand progrès qui ouvre à son tour un nouveau champ économique : l’éthique. S’y engouffrent alors toutes les intentions du monde, « bonnes » aussi bien que « mauvaises », signe de ce phénomène bien repéré ici : l’amoralité radicale du traitement de tout sujet saisi comme un problème à résoudre.

By design

Nous n’insisterons pas beaucoup sur les conséquences des prodiges du design de l’attention, de la captologie (nous renvoyons à cet article de 2017 : Nos secondes natures), relevés, surtout depuis 2016, par des centaines d’ouvrages et d’études, des milliers d’articles, des millions de publications et de posts : addictions et désordres psychologiques, prêt à penser, amplification des saillances sémantiques (fake news, complotisme…), « Apocalypse cognitive »2, « Crétins digitaux »3 … Le problème est assurément vaste et Tristan Harris s’attaque à le résoudre, lançant ainsi ce « business de l’éthique » dont nous allons maintenant dire quelques mots.

Harris, 36 ans, est issu de l’université Stanford et sa trajectoire est semblable à celle de ses plus brillants congénères. Il débute sa carrière d’ingénieur de développement chez Apple. Puis, en 2007, il co-fonde Apture, une entreprise qui propose une technologie d’amélioration de la navigation web4. Cette innovation connut un certain succès et Apture fit donc irruption dans l’ « Innovation Kill Zone » de Google (Les règles du « jeu des GAFA »). Suite, donc, au rachat d’Apture par Google, Tristan Harris continue sa carrière chez Google où il devient « design ethicist », locution qui, comme c’est désormais l’usage, habille de mots la solution visée. On peut en effet de considérer n’importe quel problème de non-respect d’une valeur « X », qui soit la conséquence d’une solution numérique opérationnelle, puis de remonter la chaîne des causes techniciennes jusqu’à la première : le design. Un nouveau « filon » surgit alors, dénommé « X by design » comme « security by design », « privacy by design », « ecology (by) design »,  « fairness by design »… et donc, bien entendu, « ethics by design » .

La noblesse technique se concentre ainsi sur le design qui a bien entendu ses authentiques talents de même que ses écoles, son langage, ses cercles, ses prétendants… Tout ce qui est accaparé par l’activité de design se recycle ainsi comme une nouvelle source de pouvoir technique : la sécurité, le respect de la vie privée, l’écologie … et donc l’éthique.

Dilemme

La proposition éthique de Tristan Harris vise initialement l’obsession des grandes plateformes numériques (Google, Facebook en premier lieu) pour la captation de l’attention des usagers, l’influence comportementale, le nudge… Mais rappelons que c’est un élément essentiel de leur « business model » et nous avons toujours salué ici la prouesse technique et l’excellent travail de design accompli par ces entreprises qui connaissent par cœur nos « horribles secrets », le premier d’entre eux étant que nous sommes tous pareils (Adam Curtis et le monde étrange). L’addiction est donc plutôt facile à susciter, notamment en entretenant, à coups de big data, d’ « intelligence » artificielle, etc. l’idée ou l’espoir que chacun d’entre nous est unique…

En 2013, Tristan Harris et Aza Raskin (« écrivain, entrepreneur, inventeur, designer d’interfaces »5) fondent l’association à but non lucratif « Time well spent » (« Le temps bien passé »), renommée aujourd’hui « Center for Humane Technology »6, pour inciter au développement d’une technologie centrée sur l’humain et qui solutionnerait les problèmes à l’inventaire d’un « grand livre des préjudices » (« ledger of harms ») : désinformation, théories conspirationnistes, fake news, perte de capacités cognitives, stress, solitude, perte du sentiment d’empathie, racisme, sexisme, tentations suicidaires, etc. Quel programme ! Dans la même veine, Harris et Raskin interviennent dans un drame documentaire diffusé en 2020 sur Netflix (!), « The Social Dilemma », qui dénonce l’utilisation et l’exploitation des données personnelles, le capitalisme de surveillance, les addictions, les manipulations politiques, etc.

Ce travail a évidemment le mérite de sensibiliser le plus grand nombre mais le simplisme des positions, la (semble-t-il) méconnaissance du vieux « royaume » de l’éthique et la posture solutionniste semblent déboucher sur un certain vide. Lisons un passage de cette très intéressante critique de « The Social Dilemma »7 :

[ Le documentaire ] traite tout problème lié à internet comme un problème relatif aux conditions particulières qui rendent Facebook ou YouTube mauvais. Toute solution à grande échelle consiste à rafistoler ou à fermer ces plateformes. Toute solution à petite échelle consiste à réduire le « temps d’écran » ou à supprimer vos comptes, principales options proposées dans The Social Dilemma8.

Le problème, global / fabriqué, identifié par Harris écrase tout sur son passage et force évidemment des solutions schématiques qui n’intéressent en vérité que les designers. Mais où sont donc passés les usagers, qui voient tout de même l’intérêt de leurs interactions sociales numériques sans être totalement naïfs sur leurs méfaits ? Seraient-ils pris pour des imbéciles par le design ethicist ? Vivons-nous au fond ce moment historique où l’usager et le citoyen, affaiblis, doivent être « protégé » par les sachants plutôt qu’instruits et responsabilisés ?

Pas si simple… La démarche de Tristan Harris semble utile et bien fondée mais souffre en particulier d’implicites, de non-dits et d’une absence de réflexivité (les valeurs ne sont jamais questionnées) qui interrogent sur son efficacité authentiquement éthique. Comment mieux qualifier ce qui se joue ici ?

Disclosive ethics

La technologie de l’information semble être un moyen très rentable de résoudre de nombreux problèmes face à une société de plus en plus complexe. On peut presque dire qu’elle est devenue une technologie par défaut pour résoudre toute une série de problèmes techniques et sociaux. Elle est devenue synonyme de modernisation et de progrès pour la société9.

Ce propos de Lucas D. Introna, professeur de technologie et d’éthique à l’université britannique de Lancaster, date de 2005. La crise de la bulle internet était alors en cours de digestion et l’inéluctable « progrès » s’était remis en marche. Zuckerberg venait de fonder The Facebook, Google lançait Google Maps, Amazon lançait sa plateforme de micro-travail Amazon Mechanical Turk, et Apple ne pesait encore que 14 milliards de dollars de chiffre d’affaires (contre 275 milliards en 2020) … A ce moment-là, il était déjà clair (aux États-Unis) que la technologie de l’information (« IT ») deviendrait l’axe de la plupart des nouveaux business globaux (nous renvoyons à l’article Elon Musk, vassal spécial pour un commentaire du terme « très rentable » employé par Introna). Il fallait cependant « innover », « disrupter » et « détruire créativement » l’existant pour leur faire une place. Ce qui était moins clair en revanche, sauf pour Introna et les chercheurs en sciences de l’information depuis les années 1980, c’était que l’IT allait diffuser ses propres « biais ». Ce ne serait pas simplement une technologie de plus.

La première caractéristique de l’IT, qui est aussi la première prémisse du raisonnement qui va suivre, c’est son opacité : l’IT est intégrée ou enchâssée (« embedded » – on ne peut pas la voir fonctionner comme un lave-linge), autonome (elle ne réclame pas notre participation ni notre présence pour fonctionner ou s’arrêter – Introna s’appuie sur l’exemple des caméras de surveillance), flexible ou ouverte (elle n’est pas destinée à produire un résultat stabilisé par avance – pensons justement au théâtre des réseaux sociaux), obscure dans son mode de fonctionnement (il est matériellement impossible de suivre le code informatique ligne à ligne pendant qu’il s’exécute ni de comprendre ses effets de couche en couche jusqu’aux impulsions électroniques et physiques qu’il déclenche), mobile ou délocalisée (non-situable dans un hardware – c’est notre Milieu naturel numérique). Retenons simplement de cette savante énumération que l’IT est opaque, c’est-à-dire qu’elle produit des effets de surface que chacun peut observer, désirer, redouter… sans que nous en comprenions les causes ni même la survenance.

La seconde prémisse est mieux connue. Comme le rappelle Introna citant le chercheur en politique américain Langdon Winner, « la technologie est politique ». Dans un langage philosophiquement plus pur, nous pouvons revenir à Gilbert Simondon qui voyait dans la machine en général la reproduction d’un « geste humain fixé et cristallisé en structures qui fonctionnent ». Autrement dit, jusqu’à l’avènement d’une vie artificielle ou d’une intelligence artificielle qui ne réclamerait plus notre présence pour fonctionner, la technologie reste une réalité humaine destinée à la reproduction d’un « geste » humain et donc sous contrôle.

Conclusion : l’opacité favorise le développement souterrain du « politique » (avec un petit « p ») entendu comme « fonctionnement effectif d’un pouvoir servant et englobant des intérêts particuliers au détriment d’autres ». L’action « éthique » proposée (avec un petit « é », dit Introna) n’est donc pas relative aux grandes questions du « bien » et du « mal » mais plus concrètement à l’identification de ces « autres » dans l’exclusion est « dissimulée » (« closure » ) par l’activité opaque propre à l’IT. Ainsi, c’est une « éthique de dévoilement » (« disclosive ethics ») qui est appelée au commencement de toute pratique éthique numérique. Ce qui n’est pas éthiquement correct au départ, c’est la dissimulation de la dissimulation.

Cette dissimulation, que Introna envisage sous les deux formes « closure » (« fermeture » déjà accomplie) et « enclosure » (« enfermement » en action), peut être observée tout au long du cycle de vie des systèmes techniques numériques.

Introna vs. Harris

Lorsque vous voulez changer les choses, vous ne pouvez pas plaire à tout le monde. Si vous faites plaisir à tout le monde, vous ne faites pas assez de progrès.

Marc Zuckerberg

Dressons maintenant quelques parallèles entre les propos de Lucas D. Introna et les positions de Tristan Harris (nous soulignons) :

Nous pouvons voir [ cette dissimulation ] comme une « fermeture » présente dès l’origine – quand les voix (ou les intérêts) de certains sont exclues du processus de design.

Le « design thinking » (brève introduction ici : Art et IA : balbutiements) n’a évidemment pas les moyens d’envisager toutes les « parties prenantes » (« stakeholders ») de la terre (« two billion people’s minds »). Il y a donc nécessairement des choix à faire pour les designers, implicites ou explicites, et visant à satisfaire le plus grand nombre en se calant sur un individu « moyen » réel ou supposé. Par exemple, le design de l’attention dénoncé par Tristan Harris exclut une large frange d’utilisateurs qui n’adhèrent pas pour eux-mêmes au principe captologique (publicité, manipulation…) ou pire, qui ne supportent pas ses effets pour des raisons psychologiques. Il faudrait donc, éthiquement, révéler l’exclusion de ces utilisateurs tout comme, dans d’autres circonstances, celle de ces minorités dans les échantillons d’apprentissage des réseaux neuromimétiques (IA), ou encore des malvoyants, dyslexiques, ou personnes en situation de handicap moteur… Mais la dissimulation ne s’arrête pas là :

Nous pouvons également considérer [ cette dissimulation ] comme une opération de « fermeture » en cours – où la possibilité de suggérer ou de demander des alternatives est progressivement exclue.

En effet, pour celles et ceux qui restent envisagés par le design, la flexibilité – l’une des caractéristiques de l’opacité – exige en contrepartie de restreindre by design la multitude des options possibles. A nouveau il faut faire des choix qui entraîneront l’utilisateur sur certains chemins mais pas sur d’autres qui auraient été possibles. Cette fermeture est bien évidemment « politique » au sens précisé plus haut de « servir des intérêts particuliers au détriment d’autres ». La technique captologique indique ainsi comment doit se comporter l’interface pour maximiser le temps d’attention et orienter l’utilisateur vers les services – au sens large – les plus « rentables », ou les empreintes publicitaires les plus efficaces. Enfin :

Nous pouvons également considérer qu’il s’agit d’une opération continue d’ « enfermement » –– où les décisions en matière de design sont progressivement « scellées » de manière à être inaccessibles en cas d’examen approfondi.

Là encore, l’ « enfermement » qu’évoque Introna peut être ou ne pas être intentionnel. Passons sur l’intentionnel. Il résulte non intentionnellement de la complexité intrinsèque à la technologie de l’information (structure en couches…), des techniques statistiques de décision (intelligence artificielle…) ou encore de la dilution des traces algorithmiques dans les gigantesques réseaux sociotechniques mondiaux. Certains enfermements peuvent être très partiellement levés (accès légal aux données, aux historiques, publication des algorithmes…) mais le dévoilement abouti, qui mettrait à jour tous les ressorts politiques d’une implémentation, reste par essence hors d’atteinte. On ne peut que l’approcher (au sens quasi-identique d’une approche philosophique de l’ « être de l’étant ») et même ce travail d’approche est empreint de politique puisqu’il exige à son tour des choix de représentation, de méthode et de langage.

Dévoilements

Au nom de quelles valeurs et de quelle manière de vivre est-il possible d’interroger la technique si notre jugement repose sur les valeurs mêmes que celle-ci véhicule ?10

Peut-il exister, comme le suggère Tristan Harris, quelque chose comme une « ethics by design », c’est-à-dire une approche technique des problèmes éthiques posés par l’IT ? Des solutions qui nous permettraient par exemple de « bien » passer notre temps ? L’éthique de dévoilement ne répond pas car elle ne vise pas directement la demande finale de sens moral et de respect de l’humain, ni cette démarcation quelque peu subjective entre le « bien » et le « mal », qui elle-même, nous l’avons vu, se joue dans la dissimulation. Elle indique cependant que les propositions de Tristan Harris dissimulent, au sein des artefacts, une autre politique, un autre jeu de pouvoir, procède à d’autres exclusions, et propose par conséquent d’autres solutions qui mènent à un autre business.

Ainsi, pour prétendre que l’individu (en général) réclame une « liberté fondamentale de vivre sa vie comme il l’entend », Tristan Harris ne se fonde-t-il pas sur une présomption de relative bonne santé, d’aisance financière, d’optimisme technique et de foi dans le progrès ? Dans ce cas, effectivement, la demande est bien celle de la liberté, de l’autonomie et de la responsabilité. Mais que l’on fasse partie des exclus de ce design-là et, disons, en difficulté, moins confiants dans l’avenir et globalement déclinistes, alors notre demande sera essentiellement celle la sécurité et de la protection, mais certainement pas du « Time well spent ». A cette demande-là peut aussi répondre by design une technologie adaptée, de notification, de traçage, d’enfermement dans des bulles de filtres rassurantes, etc. Est-ce plus « mauvais » pour autant ?

L’éthique de dévoilement est donc ainsi à la recherche des « valeurs » inscrites implicitement ou explicitement dans les systèmes opaques et des jeux de pouvoir qui y circulent. Cette méthode d’enquête ouvre ainsi un authentique espace pour l’éthique en général qui ne soit pas réservé aux seuls ingénieurs.

Machines morales

Cette réflexion conduit inopinément à un retour vers l’articlePageRank, Parcoursup et autres « machines morales » qui traitait du pouvoir performatif de la technologie de l’information sur nos structures sociales et nos systèmes de croyance. Le schéma final peut maintenant être complété ainsi :

Nous disions : notre système de croyances (1) détermine les théories de l’information (2) qui, mathématisées et algorithmisées, sont devenues performatives car elles fabriquent de nouvelles réalités sociales. C’est désormais possible parce que leur diffusion dans le système technicien est assurée par des moyens techniques et financiers considérables (3). Ainsi recyclées en « machines morales » (4), elles transforment à leur tour nos systèmes de croyances (1).

Le « progrès » technique parcourt le cercle dans le sens indiqué tandis que le « progrès » éthique devrait aujourd’hui chercher un recommencement en effectuant le parcours inverse pour dévoiler l’accumulation des fermetures et enfermements auxquels les designers, développeurs, entreprises, administrations, etc. ont procédé .

Dès lors, la problématique centrale apparaît : peut-on finir par remettre dans le même sens progrès technique et progrès éthique ? C’est au fond cette resynchronisation que Tristan Harris tente de réaliser mais, pourrait-on dire, en force : l’éthique devient un problème à résoudre, puis un sujet technique (by design), puis une matière assujettie à la technologie de l’information pour finir contaminée par son opacité. Comment sortir de cette aporie ? Il n’y a pas de bonne nouvelle : probablement très difficilement ! Il faudrait en principe renverser les ordres et limiter la technique par l’éthique car, rappelons-le, selon la fameuse loi de Gabor, tout ce qui est techniquement faisable sera fait. Mais la subordination de la technique à l’éthique est une illusion depuis que l’éthique n’est plus elle-même incontestablement soumise à un ordre supérieur et « nécessaire » (de nature divine), depuis qu’elle ondoie mollement dans les eaux d’un marais obscur.


Version pdf : Tristan Harris et le marais de l’éthique numérique


1. Alice Maruani / Rue 89 – 21 novembre 2016 – Tristan Harris : « Des millions d’heures sont juste volées à la vie des gens »
2. Gérald Bronner / PUF – 2020 – Apocalypse cognitive
3. Michel Desmurget / Éditions du Seuil – mars 2020 – La fabrique du crétin digital
4. Rory O’Connor / 28 février 2009 – Apture: Web 3.0 Is Now
5. Wikipedia – Aza Raskin
6. Site de l’organisation – Center for Humane Technology
7. Adi Robertson / The Verge – 4 septembre 2020 – TELLING PEOPLE TO DELETE FACEBOOK WON’T FIX THE INTERNET
8. Les recommandations du Center for Humane Technology, si cela peut vous inspirer : Take Control
9. Lucas D. Introna / Ethics and Information Technology – 2005 – Disclosive Ethics and Information Technology: Disclosing Facial Recognition Systems
;10. Guillaume Carron / PUF, « Revue de métaphysique et de morale », 2013/3 N° 79 | pages 433 à 451 – 2013 – L’institution comme préalable à une éthique de la technique
;11. Si l’on évoque ici une sorte d’ « herméneutique » des systèmes techniques, on est conduit vers d’autres chemins, comme par exemple celui de l’ « éthique interrogative » proposée par le philosophe Olivier Abel (la résonance de l’expression avec la « disclosive ethics » est frappante). Suivant rapidement Abel, retenons ici que dévoiler n’est pas seulement une amorce de démarche éthique : c’est aussi ouvrir un espace commun « au sein duquel les êtres humains peuvent cohabiter ». Ce n’est pas rien !

1 Réponse

  1. Jean MORTES dit :

    Les GAFA se prennent pour Jupiter mais ne sont qu’une caverne d’Ali Baba dont les jours sont comptés.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.