Recomprendre le neuromimétisme

Temps de lecture : 23 minutes


[…] ce que tout le monde attend de cette ambition portée par la littérature et la philosophie, c’est d’essayer de recomprendre les choses.

Fabrice Luchini sur France Inter – 1er octobre 2019

Étant tous exposés aux ritournelles sur l’intelligence artificielle, nous avons bien fini par comprendre quelque chose de ces « réseaux de neurones artificiels », du « machine learning », etc. Mais confrontés à des images nécessairement simplificatrices, à des propos alarmistes ou au contraire dithyrambiques, à ce manque de mesure, nous avions envie de « recomprendre » le sujet d’un point de vue historique. Il s’agit ici de relever les grandes articulations philosophiques et techniques qui ont mené à ce « neuromimétisme » qui fonde en bonne partie le fonctionnement des machines que l’on nous présente aujourd’hui comme « intelligentes ».

Avertissement : cet article étant un peu long, ceux qui estiment déjà bien connaître l’histoire et les principes du neuromimétisme peuvent passer directement aux commentaires finaux. Comme d’habitude, une version pdf de l’article est proposée à la fin en téléchargement.

Efficience numérique, astuce humaine

L’intelligence artificielle se répand dans tous les domaines, qu’il s’agisse de reconnaissance de visages, de conduite autonome, de conversation en langage naturel, de production artistique… Nos artefacts ont sans conteste acquis des capacités qui, jusqu’à très récemment, étaient encore l’apanage de l’être humain. La grande majorité de ces techniques repose sur un unique principe, celui de l’imitation numérique des neurones vivants : le « neuromimétisme ». Les ingénieurs ont donc mis au point des méthodes dites d’ « apprentissage » pour ces amas de pseudo-neurones. Ainsi, le comportement de la machine n’est pas spécifié au départ mais il est progressivement affiné par la présentation d’exemples bien choisis en vue d’imiter une compétence particulière, comme reconnaître un individu sur une caméra de surveillance ou déterminer le prochain coup au jue de Go.

Le fonctionnement de ces algorithmes neuromimétiques est étonnamment simple. Il est d’ailleurs difficile d’envisager le rapport entre ces quelques dizaines de lignes de code informatique (nous concédons quelques centaines pour le « cœur battant » des plus sophistiqués) et leur capacité, par exemple, à reconnaître un visage. Qui plus est, ces algorithmes déroulent essentiellement de simples, quoique massifs, calculs arithmétiques (addition, multiplication, division, soustraction).

Comment en sommes-nous arrivés à croiser ainsi, et à confondre parfois, intelligence et calcul, philosophie et ingénierie, territoire mystérieux et carte approximative ?

Perfect storm

Warren McCulloch

Warren McCulloch

Le neuromimétisme a été porté sur les fonts baptismaux en 1943 dans un élan poético-philosophico… militaire par l’épique Warren McCulloch et le surdoué Walter Pitts. C’était l’instant d’une « tempête parfaite », un moment dans l’histoire des sciences qui ne pouvait qu’advenir et dont l’intelligence artificielle d’aujourd’hui et ses calculs arithmétiques sont des conséquences directes.

Pour McCulloch en particulier, il n’y a aucun doute : l’esprit est un système de commande et de contrôle. Il ne s’agit pas d’une simple ressemblance, qui pourrait servir de « patron » à une imitation concrète, mais de l’être-même de l’esprit humain.

Quels étaient donc, au début des années 1940, les connaissances philosophiques, histologiques, mathématiques, etc. réunies pour déclencher une telle « tempête » chez McCulloch ? Quel était le contexte ? De quelle tradition intellectuelle s’est-il inspiré ?

L’esprit calculant de Leibniz

A partir du XVIIème siècle, le brassage culturel lié à l’essor du commerce et des échanges internationaux a favorisé la recherche scientifique et philosophique d’une essence de l’être humain qui ne soit pas d’ordre divin. Nous entrions dans l’ère de la connaissance et de la raison. Il faut ainsi comprendre l’ambition portée par Gottfried Leibniz (nous soulignons)1 :

[ Son ] dessein de fonder une Langue Universelle qui remplaçât toutes les langues nationales, soit dans le commerce entre les divers pays, soit surtout dans les relations entre les savants de toute l’Europe, procède évidemment du mouvement intellectuel de la Renaissance, qui, en renouvelant toutes les sciences et la philosophie, avait révélé l’unité fondamentale de l’esprit humain […]

Il s’agit là d’une modalité épistémologique tout à fait nouvelle : l’esprit humain, en tant qu’il manifeste des régularités, peut faire l’objet d’une science nouvelle. Son « unité fondamentale » sécularisée devait pouvoir être saisie par un système symbolique adapté. Le projet de Leibniz d’élaborer une « Caractéristique Universelle » était censé répondre à ce défi :

La Caractéristique doit servir de fondement à une véritable algèbre logique, au Calculus Ratiocinator, applicable à tous les ordres de connaissance où le raisonnement peut s’exercer. […] En somme, Leibniz ne fait que généraliser et régulariser ce procédé systématique de l’esprit, en substituant partout aux signes verbaux, dont le sens est vague et les liaisons lâches, des signes algébriques possédant un sens bien défini et soumis à des règles fixes de combinaison.

Leibniz proposait ainsi de mettre en signes et en équations cette partie raisonnante de la pensée qui émet des jugements de vérité sur le monde. Ces jugements seraient incontestables puisque le Calculus Ratiocinator mettrait mécaniquement tout le monde d’accord2 (c’est au fond le principe même des mathématiques, Calculus Ratiocinator par excellence, à ceci près qu’on ne sait pas dire dans quelle mesure les propositions mathématiques sont des propositions au sujet du monde).

Notons bien que Leibniz fonde son projet de Caractéristique Universelle sur une analogie entre la pensée (raisonnante) et la machine à calculer. McCulloch franchira lui le Rubicon ontologique en affirmant que l’esprit est une machine. Nous allons tenter de mieux comprendre les raisons de ce franchissement dont l’IA d’aujourd’hui garde encore la trace.

Le fond de l’air philosophique : Kant

Rappelons très sommairement que la réflexion déployée dans la « Critique de la raison pure » vise essentiellement à contrer l’empirisme « pur », ce principe selon lequel l’esprit serait à l’origine une table rase sur laquelle viendraient, à l’épreuve de l’expérience, se former les concepts et s’agréger les connaissances. Non pas : il existerait selon Kant une forme de jugement, dit « synthétique a priori », qui par définition enrichirait nos connaissances (« synthétique ») sans pour autant découler d’une expérience sensible (donc « a priori »). Mais il faudrait pour cela que notre « entendement » ait une certaine conformation a priori, de façon que les idées puissent, indépendamment de toute expérience, prendre une « forme » plutôt qu’une autre et s’organiser en nous. Il y a bien, par exemple, quelque chose en nous qui nous fait saisir le concept de nombre indépendamment de toute expérience, et nous fait porter des jugements a priori du genre : 5 + 3 = 8.

Ces propositions philosophes ont toujours inspiré et défié McCulloch qui, interrogé par son professeur de philosophie au sujet de son avenir, répondit qu’il ferait des recherches sur cette question : « What Is a Number, that a Man May Know It, and a Man, that He May Know a Number ? ». C’est-à-dire quelle est cette mystérieuse conformation matérielle de l’esprit humain qui rend possible, par lui, la connaissance du nombre et, plus généralement, tout jugement synthétique a priori ? Voici donc le projet de McCulloch3 :

[…] McCulloch était en train d’annoncer à une assemblée de scientifiques qu’il cherchait les conditions de possibilité d’une connaissance qui donne une authentique information au sujet du monde. Il s’y prendrait de façon « expérimentale », voire mathématique. Le « synthétique a priori » résidait quelque part entre le cerveau et le nouvel « automate » numérique.

Nous rencontrerons plus loin cet automate numérique mais, pour le moment, il s’agit de comprendre le défi de Warren McCulloch qui, porté par une ambition toute leibnizienne, cherche à apporter une réponse scientifique à un problème philosophique. La question de l’esprit doit poursuivre ainsi sa migration :

Dieu philo science

Les conditions de la cognition, c’est-à-dire de l’organisation a priori des connaissances, sont à chercher dans la structure même du cerveau. Ce programme de recherche scientifique, Warren McCulloch l’a intitulé « épistémologie expérimentale ».

L’esprit, objet de science

Il faut bien apercevoir ici le glissement opéré par McCulloch et dont l’IA moderne est l’héritière :

McCulloch voulait envisager le principe de Kant en tant que nombre et que quantité. Mais cette « quantité » n’était pas seulement une mesure accomplie par l’esprit ; il s’agissait d’une capacité authentique – ce que Kant appelait une « faculté » – qui transcendait tout dualisme entre matière et idée. Le numérique était une forme de cognition, pas seulement une technique de mesure.

Ce point est crucial. Les sciences naturelles (physique, chimie, biologie…) mesurent les phénomènes avec des nombres (dimensions, vitesse, poids…). Ces phénomènes sont dès lors accessibles non seulement à des descriptions « écrites » mais aussi à des prescriptions mathématiques c’est-à-dire à un ensemble de lois scientifiques (équations de la relativité générale, loi de la chute des corps, etc.).

Il manquait seulement à l’esprit ses « nombres » pour devenir l’objet d’une science et de lois naturelles. Il ne s’agit évidemment pas de vitesse, de longueur, etc. mais d’information, dont les mathématiciens commençaient à détenir une théorie solide depuis 1948 grâce à Claude Shannon. Mais pour achever la conversion de l’esprit ainsi mesuré et mesurant en objet de science, il fallait investiguer le corps matériel supposé de l’esprit, son « hardware » : le cerveau.

Cajal & Co.

Si la « bioélectricité » était un phénomène envisagé depuis longtemps, ce n’est qu’à la fin du XIXème siècle que l’espagnol Santiago Ramón y Cajal, utilisant certaines des méthodes d’observation mises au point par l’italien Camillo Golgi, établit le principe structurel du cerveau : les neurones sont des entités cellulaires séparées par de fins espaces « synaptiques »4. Le cerveau n’est pas un tissu mais a une structure atomique discrète, « démocritéenne » aurait dit McCulloch, et grâce aux techniques d’observation microscopiques il était désormais possible d’en comprendre le fonctionnement.

Santiago Cajal

L’un des merveilleux dessins de Santiago Cajal

Les observations de Cajal lui vaudront en 1906 avec Golgi le prix Nobel de médecine. Elles ouvrent à l’évidence une voie de recherche : connaissant le lego neuronal du cerveau, il faut maintenant remonter aux phénomènes de l’esprit.

Il faut toutefois observer que le neurone est une cellule vivante, non pas un atome démocritéen ou une monade mais un élément lui-même sécable et complexe. Dans son ouvrage intitulé « The Integrative Action of the Nervous System », publié en 1911, le médecin anglais Charles Scott Sherrington, autre référence de McCulloch, précise ainsi :

En premier lieu, les cellules nerveuses, comme toute autre cellule, ont leur vie propre : elles respirent, elles digèrent, elles diffusent leur propre stock d’énergie, elles gèrent leurs propres déchets ; en un mot, chacune est une unité vivante […].

Le niveau neuronal ne sera donc jamais un « plancher » pour les phénomènes de l’esprit, pas plus que le niveau atomique n’est un plancher pour les phénomènes physiques. Le cerveau est moins un lego neuronal qu’une société de neurones (et d’autres types de cellules comme les astrocytes). Il n’en reste pas moins que la cellule nerveuse a bien un comportement spécifique, qui semble légitimer, en première analyse, le neurone comme atome des phénomènes spécifiques, synthétiques a priori, de l’esprit. Citons à nouveau Sherrington :

Les cellules nerveuses présentent une fonction si caractéristique […] que l’on peut considérer qu’elle leur appartient en propre. Elles ont, dans une mesure exceptionnelle, la capacité à transmettre (conduire) spatialement les états d’excitation (impulsions nerveuses) produits en leur sein.

Nul autre type de cellule ne se comporte ainsi. Nous glissons ainsi de la structure atomique identifiée par Cajal à la fonction atomique consistant à conduire un état d’excitation. Cette avancée est fondamentale car elle ouvre la voie à un modèle mathématico-physique de cette fonction de conduction et donc à un modèle complet du cerveau.

Dernier aspect, toujours sous la plume de Sherrington (nous soulignons) :

Dans l’animal multicellulaire, particulièrement ceux pour lesquels les réactions de haut niveau constituent leur comportement en tant membre social d’une économie naturelle, c’est la réaction nerveuse qui l’intègre au plus haut point, le soude à partir de ces constituants, et le constitue en tant qu’individu à partir d’une simple collection d’organes.

Une fois additionnées ou intégrées, les excitations neuronales se manifestent comme des phénomènes macroscopiques : des comportements. La trajectoire de recherche est ainsi complètement tracée et l’épistémologie du cerveau entièrement soumise, jusqu’à maintenant, à cette simple exigence : expliquer le comportement individuel, les phénomènes de l’esprit, comme le résultat d’une intégration fonctionnelle (physico-mathématique) de la conduction d’états d’excitation dans le réseau neuronal.

La résolution du problème posé par Kant est en vue.

Cerveau = machine à calculer

Axone synapse dendriteNous ne sommes qu’en 1911 et 30 années nous séparent encore de l’article de Pitts et McCulloch pendant lesquelles les neuroscientifiques examineront en détail le schéma du circuit neuronal. En bref, l’état d’excitation d’un neurone est transmis électriquement par son axone vers les neurones suivants. Un neurone intègre les états de ses neurones antérieurs arrivant par les liaisons synaptiques.

Le premier point à retenir, qui va déclencher la synthèse de Pitts et McCulloch, c’est que l’état d’excitation du neurone, atome du cerveau donc de l’esprit, semble être binaire : il est excité ou il ne l’est pas ; il est « allumé » ou « éteint ». Bref, le modèle d’excitation du neurone est simplissime : c’est cette fameuse unité d’information, le « bit », le nombre que nous cherchions pour faire entrer l’esprit au royaume des sciences naturelles. Le neurone n’appartiendra plus jamais à la seule histologie et sera désormais une pièce à deux faces : biologique d’un côté, mathématique de l’autre.

Le second point découle des observations du physiologiste danois Joannes Gregorius Dusser. Il révélera, en partie avec Warren McCulloch dans les années 1930, certains des grands principes de la dynamique neuronale et en particulier celui-ci : les états d’excitation se propagent de neurone en neurone dans une seule direction. Il y a des chemins dans le cerveau, avec des commencements et des fins, et donc nécessairement des couches périphériques de neurones dits d’ « entrée » (« afférents ») et de « sortie » (« efférents »). Le cerveau est donc une machine à calculer des informations de sortie (des commandes musculaires par exemple) étant donné des informations d’entrée (des signaux visuels par exemple).

McCulloch pourra ainsi écrire5 :

Pour la première fois dans l’histoire de la science, nous savons comment nous savons et nous pouvons ainsi l’expliquer clairement [ car ] nous sommes sur le point de pouvoir nous représenter l’individu connaissant comme une machine à calculer.

Il semblait avoir trouvé la réponse à sa question de jeunesse : « What Is a Number, that a Man May Know It, and a Man, that He May Know a Number ? ».

Warren McCulloch et Walter Pitts

Il ne reste plus, si l’on peut dire, qu’à modéliser le cerveau sur la base des observations histologiques, de la logique et des mathématiques de l’information (De l’infosphère à une éthique gazeuse). Ce sera fait dans le célèbre article de Warren McCulloch et Walter Pitts dont le titre vaut le détour : « A logical calculus of the ideas immanent in nervous activity » et qui commence ainsi6 :

Du fait du caractère « tout ou rien » de l’activité neuronale, les événements neuronaux et leurs relations peuvent être envisagés par les moyens de la logique propositionnelle.

Que signifie cette proposition ? L’état du neurone étant binaire, on peut considérer qu’il propage aux autres neurones, par son axone, une unité d’information. Le saut ontologique consiste à prétendre que cette « unité d’information » est comme un jugement de vérité au sujet du monde, ce qu’en logique mathématique on a appelle une « proposition ». Quelque chose est « vrai » ou « faux », selon que le neurone excité ou pas. Le cerveau est ainsi « juste » une machine à calculer des « jugements de vérité » au fil de la progression des signaux informationnels entre les neurones d’entrée afférents et les neurones de sortie efférents.

Walter Pitts

Walter Pitts

Si McCulloch était le poète / philosophe / neuroscientifique de l’affaire, Walter Pitts, de 25 ans son cadet, en était le génie mathématique. Pitts nous rappelle étrangement Alan Turing (Le corps de Turing) : autodidacte, rêveur, enfance troublée, refuge dans la perfection mathématique, chute finale face à l’impossibilité de concrétiser cette perfection. Il rencontre McCulloch à l’âge de 18 ans7 :

Pitts était petit et timide, avec un long front qui l’avait prématurément vieilli et un visage trapu, le faisant ressembler à un canard à lunettes. McCulloch était un scientifique respecté. Pitts était un fugitif sans abri. Il fréquentait l’Université de Chicago, faisait des petits boulots et se faufilait dans les conférences de Russell, où il avait rencontré un jeune étudiant en médecine nommé Jerome Lettvin. C’est Lettvin qui a présenté les deux hommes. Au moment où ils ont parlé, ils ont réalisé qu’ils partageaient un héros commun : Gottfried Leibniz.

Pitts va aider McCulloch à franchir progressivement tous les obstacles mathématiques. Ils proposeront ensemble dans leur article un modèle mathématique du neurone, un neurone formel que l’on appellera « neurone de McCulloch et Pitts ». Voici deux des configurations proposées en exemple (dessins extrait de leur article) :

Neurones de Pitts McCulloch

Supposons que le neurone (3) doive recevoir deux signaux d’excitation par ses liaisons synaptiques (ronds noirs) pour être à son tour excité. Dans le schéma de gauche, les deux neurones (1) et (2) doivent donc être excités en même temps pour exciter (3), réalisant ainsi l’opération logique : « si (1) et (2) alors (3) ». Dans le schéma de droite, il suffit que (1) soit excité pour exciter 3 puisque son signal est doublé sur les synapses de (3), sauf si (2) est excité car celui-ci propage un signal inhibiteur (rond blanc). L’opération logique est cette fois : « si (1) et non (2) alors (3) ».

Nous voyons ainsi apparaître, en schémas et en équations, saisie par une science naturelle, la conformation spécifique du jugement synthétique a priori d’Emmanuel Kant. Toute connaissance est contrainte a priori par ce type de réseau neuronal logique. Sans en comprendre les détails, on voit néanmoins que le cerveau serait donc une gigantesque machine logique de 100 milliards de tels neurones et 10 000 fois plus de liaisons synaptiques (ce serait donc la quantité inouïe de calculs logiques qui expliquerait l’infinie complexité des phénomènes de l’esprit ?).

Il y a néanmoins un problème : quelles sont les configurations neuro-synaptiques possibles d’un cerveau humain ? Comment se développe-t-il et apprend-t-il ? La réponse à ces questions viendra progressivement et nous allons assister, à partir de l’article séminal de McCulloch et Pitts, à un dialogue ininterrompu entre la psychologie, les neurosciences et l’informatique qui conduira une évolution technicienne du neurone formel jusqu’à l’IA d’aujourd’hui. Sur cette trajectoire, la philosophie, devenue inutile et encombrante, passera par-dessus bord.

Militarisme

Le contexte militaire a joué un rôle fondamental dans ces développements. En effet, la plupart de ces recherches, dont la cybernétique naissante puis l’intelligence artificielle, étaient financées par l’armée américaine. Mais surtout, la situation de guerre était une véritable matrice pour le développement de l’intelligence artificielle car l’ « intelligence » devait avant tout servir les systèmes d’armes. McCulloch avait beau être sensible à la poésie et à la philosophie, il était lui-même un militariste convaincu8 :

A la différence de ceux qui construisaient des machines à calculer, les chercheurs s’occupant de réseaux neuronaux étaient explicitement restés en guerre. McCulloch tout du moins, qui était non seulement scientifique, mais aussi officier et en tant que tel un acteur de la Guerre froide, se considérait encore en 1948 « confronté aux machines ennemies », et voyait là la spécificité de son rapport quotidien aux machines procréées […] La généalogie de la cybernétique est de toute évidence profondément ancrée dans la manière dont McCulloch concevait le rôle du scientifique. Celle-ci portait la marque des travaux de Wiener sur la prédictibilité statistique du comportement de vol des bombardiers ennemis, effectués afin de mieux diriger les batteries de défense antiaérienne […] Même Heidegger alla jusqu’à noter, dans une conférence qu’il tint en 1965 au Burghölzli, que le « modèle anthropologique » conçu par la cybernétique « trouve son origine dans la cybernétique de l’artillerie antiaérienne ».

Par « machine ennemie », McCulloch entendait en particulier « cerveau ennemi », dont il entreprenait ainsi le décodage (à la manière d’Alan Turing décodant les rouages d’Enigma). Il est à peine exagéré de dire que la « tempête parfaite », conjonction d’une histoire philosophique, mathématique et histologique, a été précipitée par la guerre. L’IA était scientifiquement et philosophiquement prête à naître mais le conflit mondial l’a d’emblée dotée d’un corps (la machine de guerre) avec un objectif (vaincre). L’IA « civile » qui se dégagera progressivement abandonnera curieusement toute idée d’incarnation. Il s’agira de raisonner, de jouer aux échecs, de comprendre le langage…

Donald Hebb

La matrice conceptuelle du neuromimétisme est en place. En général, les nombreuses explications au sujet de l’IA moderne et des réseaux de neurones formels commencent ici, après ce passage à l’ingénierie :

On doit au psychologue canadien Donald Hebb d’avoir trouvé en 1949 une réponse à la question : comment un réseau neuromimétique apprend-t-il ? Cette réponse est simple et élégante. La voici décrite par Hebb lui-même9 :

Quand l’axone d’une cellule 1 est assez proche pour exciter 2 et prend part de façon répétée et persistante à son activation, un processus métabolique se met en place dans les deux cellules de sorte que l’efficacité de 1, en tant qu’elle excite 2, est accrue.

Neurones 1 et 2Autrement dit, quand l’axone du neurone 1 est relié au neurone 2, l’excitation simultanée et répétée de 1 et 2, quelles qu’en soient les causes, renforce le fait pour 2 d’être excité lorsque, au départ, seul 1 est excité. Sous une forme plus logique, l’observation simultanée et répétée de 1 et 2 fait « apprendre » la règle : si 1 alors 2. Ce mécanisme n’est pas sans rappeler le « conditionnement » que le physiologiste russe Ivan Pavlov a établi au début du XXème siècle. Son fameux chien a « appris » à associer l’endroit où il est nourri (1) à la nourriture (2). A chaque retour à (1) il se met donc à saliver car (1) implique (2) : le fait d’être nourri.

Selon Hebb, l’apprentissage serait ainsi une sorte de conditionnement neuronal. C’est exactement ce qui se produit dans nos « intelligences artificielles » modernes, que l’on peut donc sans problème qualifier de « pavloviennes ». Il ne reste plus qu’à mathématiser ce principe mais nous voyons bien apparaître un problème technique avec la logique des propositions, booléenne (tout ou rien) proposée par Pitts et McCulloch : il est à peu près impossible de traduire dans ce formalisme la règle de renforcement progressif de Hebb.

Frank Rosenblatt

En 1957, le psychologue américain Frank Rosenblatt résout le problème en proposant un modèle, qu’il nomme « perceptron », dans lequel l’état d’excitation du neurone varie continûment de 0 (neurone au repos) à 1 (neurone dans l’état maximal d’excitation) en prenant toutes les valeurs intermédiaires possibles :

Neurone perceptron
Il n’y a, à notre connaissance, aucune autre raison que mathématique pour procéder à ce changement, changement pourtant déterminant car il passe l’ontologie de McCulloch (esprit = machine) par dessus bord. Le neurone ne véhicule plus un « jugement » propositionnel, un « vrai » ou « faux » au sujet du monde, mais une simple « mesure ». Dès 1957, l’esprit passe ainsi des sciences naturelles à l’ingénierie. Il n’en n’est plus jamais revenu.

Neurones formelsLe nombre pouvait dès lors se répandre dans le cerveau artificiel. Les liaisons synaptiques ont des poids (1,2 et 5 par exemple) et l’état d’excitation du neurone efférent est, en principe, une simple opération de pondération des excitations des neurones afférents par les poids des liaisons synaptiques :

1×0,7+2×0,9+5×0,1=3

Détail technique pour la cohérence du texte : 3 n’étant pas dans l’intervalle admis [0,1], une dernière fonction f (dérivable) normalise ces résultats, par exemple f(3)=0,7, qui est le niveau d’excitation final du neurone efférent.

L’apprentissage consiste à ajuster progressivement (à conditionner) le poids des liaisons synaptiques en soumettant au perceptron de nombreux exemples où les états d’excitation des neurones afférents (situation 1 : la gamelle du chien ou la photographie de mon visage sur une caméra de surveillance) sont présentés en même temps que les états d’excitation des neurones efférents (situation 2 : la nourriture ou mon identité) jusqu’à ce que la seule présentation de (1) calcule à peu près (2) grâce aux poids synaptiques « appris ».

L’intelligence artificielle est comme un animal pavlovien ou un oreiller à mémoire de forme et nos réseaux neuromimétiques modernes ne sont que des évolutions « simondiennes » très astucieuses de ce perceptron. Nous n’irons pas plus loin dans la technique : le perceptron saisit bien l’essence de nos IA modernes.

Confusions

Le neuromimétisme prouve tous les jours son efficacité technicienne dans de nombreux domaines, pour le meilleur (médecine en particulier) et pour le pire (L’IA par ses ombres). Les « sachants » ont beau affirmer aujourd’hui que nous sommes très loin de l’intelligence humaine, il ne fait aucun doute pour eux que l’intelligence humaine est l’horizon du neuromimétisme. Ainsi nous ne résistons pas à citer l’incontournable Yann Le Cun, qui déclare au moment où nous terminons la rédaction de cet article10 :

Les machines vont arriver à une intelligence de niveau humain.

Tout en affirmant qu’il manque, bien sûr, pour cela un morceau de science, mais aussi que (nous soulignons) :

L’intelligence humaine est, elle aussi, spécialisée, mais moins spécialisée que l’intelligence artificielle. Je crois à ce qu’on appelle l’intelligence artificielle de niveau humain (« human level intelligence »). Pour moi, il ne fait aucun doute que les machines arriveront tôt ou tard à des niveaux d’intelligence aussi performante et générale que les humains et, probablement, nous dépasseront assez vite.

Tête à totoLe langage analogique est bien place mais la tenue philosophique d’un McCulloch, quoique l’on pense de ses travaux, a bel et bien disparu. Le vocabulaire s’applique indifféremment et dans la plus grande confusion à l’humain (et au vivant en général) et à la machine. Cette interprétation de la « philosophie » de Pitts & McCulloch, devenue inapplicable depuis Rosenblatt, autorise malheureusement, comme nous venons de le voir, à comparer les deux. La machine a ainsi plus ou moins de « neurones » que le cerveau du poulpe, de la grenouille ou de l’homme… accréditant l’idée que l’ « animal » neuromimétique serait semblable au poulpe, à la grenouille ou à l’homme… alors que le neurone formel n’est que la tête à toto numérique d’une cellule qui, comme le rappelait Charles Scott Sherrington, est vivante (dans un corps vivant).

Dans la même veine, le journaliste Lee Simmons relaie aussi le message dans « pourquoi l’intelligence artificielle n’est pas (encore) comme notre cerveau »11. Nous le rejoignons ici :

L’IA ressemble autant à la matière grise dans votre cerveau qu’une marionnette ressemble à un génie. Il existe bien des similitudes, et ce que l’on appelle les réseaux de neurones [ formels ] sont inspirés par les neurosciences.

Mais la différence essentielle tiendrait surtout à la quantité et serait résolue par un effort technicien :

Mais ces systèmes [ neuromimétiques ] n’ont que quelques millions de neurones […] C’est bien peu, comparé aux 100 milliards de neurones dans notre crâne.

Il ne reste plus qu’à améliorer le hardware. L’intelligence humaine est à portée de main.

Énergivores ?

La consommation d’énergie de ces milliards de bouts de cerveau artificiels qui se répandent dans notre milieu naturel digital pourrait fortement progresser (L’illusion d’un monde numérique « vert »). C’est la technique de base du perceptron qui nous permet de comprendre pourquoi. En effet, chacun de ces bouts de cerveau artificiels dispose de millions de « neurones » et de centaines de millions de paramètres synaptiques qui servent des milliards d’additions et de multiplications qui… chauffent (au sens propre, voir Les promesses de l’informatique quantique). L’un des miracles de la vie, c’est son extraordinaire sobriété : seulement 20 watts pour le cerveau humain. Certes, de nouvelles puces électroniques spécialisées en calcul neuromimétique apparaissent et sont beaucoup plus sobres que les puces classiques, mais il est à peu près clair que, si le mouvement continue, la multiplication des « intelligences » devra être freinée pour de simples raisons énergétiques. Peut-on se permettre d’ajouter une « humanité artificielle » sur une planète qui peine déjà avec une seule

Questions finales

La transition entre l’idéal philosophique « leibnizien » de Pitts & McCulloch (1943) et la course technique lancée par Hebb (1949) a été fulgurante. Une porte semble avoir claqué au nez des philosophies de l’esprit, dont il n’est même plus question aujourd’hui. Mais il est fort probable que, face aux limites bientôt perceptibles de nos IA à mémoire de forme, elles fassent un jour ou l’autre leur grand retour.

Avons-nous maintenant assez « recompris » le neuromimétisme ? Probablement pas, mais l’arc historique que nous avons grossièrement esquissé permet d’envisager cette technologie à la manière d’une machine morale (voir PageRank, Parcoursup et autres machines morales) et d’envisager ainsi d’autres questions. Le neuromimétisme et son langage est l’un des symptômes de cette crise de l’imagination qui traverse nos sociétés numériques atteintes de psittacisme (Adam Curtis et le monde étrange). Nous devrions nous efforcer, non pas d’en ânonner les « exploits », mais d’anticiper ses failles et ses limites, de le remettre sur l’établi dialectique et d’en faire ainsi une technologie éthique. Ce sera difficile sans une base conceptuelle assainie.

En attendant, nous faisons nôtre la conclusion de l’historienne des sciences Lily Kay (ajouts entre crochets et nous soulignons)12 :

Comme nous l’avons vu, ce n’était pas « l’esprit » en tant qu’objet éternel et immuable que McCulloch et Pitts ont introduit dans la recherche quantitative expérimentale dans les années 1940. Certes, certaines […] images et icônes éternelles de l’âme, de l’anima et de la psyché ont contribué aux nouvelles reconceptualisations de l’esprit, tout comme les doctrines philosophiques et les outils mathématiques antérieurs (comme c’est toujours le cas dans les ruptures épistémiques). Mais les configurations particulières de ces outils et images [ neuromimétiques ] portaient les marques indéniables d’un nouvel épistème postindustriel : une technoculture militaire émergente de communication, de contrôle et de simulations. Au sein de ses régimes de signification, la vie et la société ont été remaniées sous la forme de relais de signaux et de systèmes d’information.

Nous reconnaîtrons sans mal une évocation du Milieu naturel digital, véritable rejeton technoculturel neuromimétisme d’ordre effectivement militaire, ontologiquement dédié à la surveillance et au contrôle.



Version pdf : Recomprendre le neuromimétisme


1. Louis Couturat – 1901 – La logique de Leibniz
2. Déjà au XIIIème siècle, le théologien Raymond Lulle avait entrepris de démontrer la vérité chrétienne aux musulmans grâce à sa machine, son Ars Magna, dont le mécanisme déplaçait les propositions qu’on lui soumettait en position « vrai » ou « faux ».
3. Leif Weatherby pour The Hedgehog Review – 2018 – Digital Metaphysics, The Cybernetic Idealism of Warren McCulloch
4. Wikipédia – Santiago Ramón y Cajal
5. Warren McCulloch – 1948 –Through the Den of the Metaphysician
6. Warren S. McCulloch et Walter Pitts dans Bulletin of Mathematical Biophysics, Vol. 5, pp. 115-133 – 1943 – A logical calculus of the ideas immanent in nervous activity
7. Amanda Gefter pour Nautilus – 5 février 2015 – The Man Who Tried to Redeem the World with Logic (lien cassé)
8. Erich Hörl pour Appareil – 2008 – La destinée cybernétique de l’occident. McCulloch, Heidegger et la fin de la philosophie
9. Donald O. Hebb – 1949 – Organization of Behavior
10. Benoît Georges pour les Echos – 21 octobre 2019 – Yann Le Cun : « Les machines vont arriver à une intelligence de niveau humain »
11. Lee Simmons pour Wired – 1er mars 2018 – Why Artificial Intelligence Is Not Like Your Brain—Yet
12. Lily Kay dans Science in Context vol. 14, no. 4, pp. 591-614 – 2001 – From Logical Neurons to Poetic Embodiments of Mind: Warren S. McCulloch’s Project in Neuroscience

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.