cerveau-ampoule-explosion

L'Absurdité de la Théorie Unifiée de la Cognition

Quand les traumatismes cérébraux démontrent la fragilité de nos hypothèses cognitives et l'aveuglement de l'IA

Introduction : Une Barre de Fer dans les Rouages de l'IA

Le 13 septembre 1848, à Cavendish dans le Vermont, un contremaître de chantier ferroviaire nommé Phineas Gage manipulait une barre de fer pour bourrer de la poudre explosive dans un trou de mine. Une étincelle malheureuse transforma cette barre en projectile mortel qui traversa son crâne de part en part, détruisant une partie significative de son lobe frontal gauche. Contre toute attente, Gage survécut. Mais l'homme qui se releva de cet accident n'était plus tout à fait le même : autrefois fiable et consciencieux, il devint impulsif, grossier et incapable de planifier. Sa mémoire ? Intacte. Son langage ? Parfaitement préservé. Ses capacités motrices ? Fonctionnelles.

Cette barre de fer de 1848 continue, près de deux siècles plus tard, de remettre en question les ambitions théoriques de ceux qui cherchent une théorie unifiée de la cognition. Et pourtant, en août 2025, Forbes nous présente avec enthousiasme l'idée que "la psychologie vise une théorie unifiée de la cognition et que l'IA sera d'une grande aide pour y parvenir". L'article de Lance Eliot présente avec optimisme le projet Centaur, un modèle de langage augmenté visant à capturer l'essence de la cognition humaine en s'entraînant sur des données d'expériences psychologiques.

Cette analyse se concentre principalement sur les arguments en faveur de la modularité cognitive sans prétendre épuiser tous les aspects du débat. D'autres perspectives théoriques, notamment les approches connexionnistes et les modèles de traitement distribué, méritent également d'être considérés dans une évaluation complète de ces questions.

Permettez-moi de présenter une perspective critique : cette quête d'une théorie cognitive unifiée fait face à des obstacles fondamentaux que des décennies de neuropsychologie ont mis en évidence. L'enthousiasme actuel pour ces approches semble parfois motivé par des considérations commerciales autant que scientifiques, recyclant des concepts théoriques anciens dans le contexte de l'intelligence artificielle générative.

I. L'Illusion de l'Unification : Quand Forbes et l'IA Ignorent l'Histoire

A. L'approche Centaur : Un Centaure aux Pieds d'Argile

L'article de Forbes présente Centaur comme une avancée significative dans le domaine. Les chercheurs ont pris Meta Llama 3.1 70B, l'ont entraîné avec les données de 160 expériences psychologiques impliquant 60 000 participants et 10 millions de choix, et proposent ainsi un "modèle fondationnel de la cognition humaine". Cette recherche, publiée dans Nature le 2 juillet 2025 par Binz et al., représente indéniablement un effort technique impressionnant.

Selon les chercheurs, Centaur peut prédire et simuler le comportement humain dans divers domaines cognitifs. Il a été développé en ajustant finement le modèle de langage sur le dataset Psych-101, couvrant des données essai par essai d'une échelle sans précédent. Les performances du modèle surpassent effectivement celles des modèles cognitifs spécialisés existants sur les tâches testées.

Cependant, prédire des patterns comportementaux dans des tâches expérimentales contrôlées ne constitue pas nécessairement une compréhension ou une modélisation complète de la cognition. C'est une distinction importante entre reproduire des outputs comportementaux et capturer les mécanismes cognitifs sous-jacents.

B. La confusion conceptuelle : Simulation n'est pas cognition

L'erreur fondamentale de l'approche Centaur réside dans la confusion entre simulation computationnelle et cognition réelle. Un LLM entraîné sur des données comportementales peut certes reproduire des patterns statistiques similaires à ceux observés chez l'humain, mais cela ne signifie pas qu'il "pense" ou qu'il capture l'essence de la cognition humaine.

Imaginez que je vous montre mille photos de personnes souriant et que je vous demande ensuite de dessiner un sourire. Même si votre dessin ressemble statistiquement aux sourires observés, cela ne signifie pas que vous comprenez la joie, l'ironie, la politesse forcée ou la nervosité qui peuvent toutes produire un sourire similaire en apparence. Les LLMs font exactement cela : ils reproduisent des patterns sans comprendre les mécanismes sous-jacents.

Les chercheurs eux-mêmes reconnaissent dans leur publication que Centaur est basé sur Meta Llama, utilisant une technique d'ajustement fin appelée QLoRA qui ne modifie que 0,15% des paramètres du modèle. Il s'agit donc essentiellement d'une adaptation d'un modèle de langage existant, pas d'une architecture cognitive nouvelle.

C. Le problème de la réducibilité : Des pommes et des ordinateurs

L'article de Forbes reconnaît timidement que les réseaux de neurones artificiels (Artificial Neurons Network) sont une "variation extrêmement vaguement inspirée des vrais réseaux de neurones". C'est un euphémisme considérable. Comparer un ANN à un cerveau humain, c'est comme comparer une carte postale de la Tour Eiffel à la structure métallique elle-même.

Les LLMs utilisent des transformateurs, des mécanismes d'attention, des embeddings vectoriels : toutes choses qui n'ont aucun équivalent direct dans le cerveau biologique. Prétendre qu'un système basé sur la prédiction du prochain token dans une séquence de texte peut capturer la complexité de la cognition humaine relève d'une extrapolation hasardeuse (je pense totalement erronée), pas de la science établie.

II. Les Traumatismes Cérébraux : Les Preuves Empiriques qui Défient le Mythe

A. Les lésions focales : Quand le cerveau révèle sa modularité

Le cas Phineas Gage : La personnalité n'est pas la mémoire

Revenons à Phineas Gage. Son cas, documenté par le Dr. John Harlow en 1868, est fascinant non pas pour ce qu'il a perdu, mais pour ce qu'il a conservé. La lésion massive de son cortex préfrontal a transformé sa personnalité de manière radicale. Ses amis disaient qu'il n'était "plus Gage". Pourtant, il pouvait toujours parler, se souvenir de son passé, reconnaître les visages, effectuer des calculs simples.

Si la cognition était unifiée, une lésion aussi massive aurait dû produire un effondrement global. Au lieu de cela, nous observons une dissociation claire : les fonctions exécutives et la régulation émotionnelle sont détruites, tandis que d'autres capacités cognitives restent intactes. Comment un modèle unifié pourrait-il expliquer cette préservation sélective ?

Les aphasies de Broca et Wernicke : Le langage en pièces détachées

Paul Broca, en 1861, examina le cerveau de son patient Louis Victor Leborgne dit "Tan", surnommé ainsi car c'était le seul mot qu'il pouvait prononcer. Leborgne était décédé le 17 avril 1861, et l'autopsie fut réalisée le lendemain par Broca. La lésion se situait dans l'aire 44/45 de l'hémisphère gauche, maintenant connue sous le nom d'aire de Broca. Ces patients comprennent parfaitement ce qu'on leur dit, peuvent lire, mais sont incapables de produire un langage fluide. Leur discours est télégraphique, laborieux, mais sémantiquement correct.

Quelques années plus tard, Carl Wernicke décrivit des patients avec le pattern inverse : une lésion de l'aire 22 produisait un langage fluide mais dénué de sens. Ces patients parlent abondamment, avec une prosodie normale, mais leur discours est une "salade de mots" incompréhensible. Ils ne comprennent pas ce qu'on leur dit, mais peuvent parfaitement articuler.

Cette double dissociation est un défi majeur pour toute théorie unifiée. Comment un système cognitif unifié pourrait-il perdre la production linguistique tout en préservant la compréhension, ou vice versa ? C'est comme si votre ordinateur pouvait soudainement lire les emails mais plus les écrire, ou l'inverse. Cela me rappelle le fameux gag de Laurel et Hardy dans lequel Laurel ne pouvait utiliser une échelle que dans un seul sens, il ne savait pas faire l'inverse (monter ou descendre mais pas les deux). Aucun système véritablement unifié ne pourrait présenter de telles défaillances sélectives.

B. Les agnosies : Voir sans reconnaître, le paradoxe cognitif

L'agnosie visuelle : Quand les yeux voient mais le cerveau ne comprend pas

L'agnosie visuelle aperceptive et l'agnosie visuelle associative représentent deux façons distinctes de ne pas reconnaître ce qu'on voit. Dans l'agnosie aperceptive, les patients ne peuvent pas percevoir correctement les formes : ils voient mais ne peuvent pas assembler les éléments visuels en un tout cohérent. Dans l'agnosie associative, la perception est intacte mais l'accès à la signification est perdu : ils peuvent dessiner parfaitement un objet qu'ils voient sans pouvoir le nommer ou expliquer à quoi il sert.

Un patient avec agnosie associative peut dessiner une clé avec une précision photographique, mais sera incapable de vous dire que c'est une clé ou à quoi elle sert. Il voit parfaitement, sa mémoire est intacte (il sait ce qu'est une clé quand on lui en parle), mais la connexion entre perception et connaissance est rompue. Comment expliquer cela avec une théorie unifiée ?

La prosopagnosie : Le visage de l'étranger familier

La prosopagnosie, ou cécité aux visages, est peut-être l'agnosie la plus troublante. Les patients peuvent voir parfaitement les traits du visage, décrire une barbe, des lunettes, la couleur des yeux, mais sont incapables de reconnaître qui est cette personne : même s'il s'agit de leur conjoint, de leurs enfants, ou de leur propre reflet dans le miroir.

Oliver Sacks, le célèbre neurologue, souffrait lui-même de prosopagnosie. Il raconte dans ses écrits s'être excusé auprès d'un homme pour l'avoir bousculé, avant de réaliser qu'il s'agissait de son propre reflet dans une vitrine. Ces patients peuvent reconnaître les gens par leur voix, leur démarche, leurs vêtements, prouvant que leur mémoire des personnes est intacte. Seule la reconnaissance faciale est affectée.

Si Centaur ou tout autre modèle unifié était correct, comment expliquer qu'un module aussi spécifique que la reconnaissance des visages puisse être sélectivement détruit ? L'évolution a-t-elle créé un module dédié aux visages ? La réponse de la neuropsychologie est un "oui" retentissant, contredisant directement l'idée d'une cognition unifiée.

C. Les syndromes de disconnexion : Quand l'unité cognitive se brise

Le Split-Brain : Deux cerveaux dans une tête

Les patients split-brain, dont le corps calleux a été sectionné pour traiter l'épilepsie sévère, offrent la preuve la plus spectaculaire de la modularité cognitive. Roger Sperry (Prix Nobel 1981) et Michael Gazzaniga ont montré que ces patients possèdent littéralement deux consciences séparées cohabitant dans le même crâne.

Présentez un mot uniquement à l'hémisphère droit (via le champ visuel gauche), et le patient dira qu'il n'a rien vu car l'hémisphère gauche, qui contrôle le langage, n'a effectivement rien vu. Mais demandez-lui de dessiner avec sa main gauche (contrôlée par l'hémisphère droit), et il dessinera l'objet correspondant au mot, tout en affirmant verbalement qu'il ne sait pas pourquoi il dessine cela.

L'hémisphère gauche, confronté à des actions initiées par l'hémisphère droit dont il ignore les raisons, invente des explications plausibles mais fausses : un phénomène que Gazzaniga appelle "l'interprète de l'hémisphère gauche". Cette confabulation n'est pas un mensonge conscient, c'est le cerveau gauche qui tente de maintenir une narration cohérente de la réalité malgré des informations incomplètes.

Comment un modèle unifié de la cognition pourrait-il expliquer l'existence de deux systèmes cognitifs indépendants dans le même cerveau ? C'est impossible. La seule explication cohérente est que la cognition est modulaire, et que l'unité de conscience que nous expérimentons est une illusion ou une construction créée par la communication entre modules.

Le syndrome de Korsakoff : La mémoire sélectivement détruite

Le syndrome de Korsakoff, causé par une carence sévère en thiamine souvent liée à l'alcoolisme chronique, produit des lésions spécifiques du circuit hippocampo-mamillo-thalamique. Les patients perdent la capacité de former de nouveaux souvenirs épisodiques (amnésie antérograde) et peuvent avoir des difficultés à récupérer des souvenirs anciens (amnésie rétrograde).

Mais voici le paradoxe fascinant : leur mémoire procédurale reste intacte. Un patient Korsakoff peut apprendre une nouvelle compétence motrice, s'améliorer jour après jour, tout en niant avoir jamais pratiqué cette tâche. Il peut serrer la main du médecin chaque matin comme si c'était la première fois qu'ils se rencontraient, tout en évitant inconsciemment une punaise cachée dans la paume du médecin : un apprentissage qu'il a fait les jours précédents mais dont il n'a aucun souvenir conscient.

Cette dissociation entre mémoire déclarative et mémoire procédurale démontre que la mémoire n'est pas une faculté unique mais une collection de systèmes distincts, chacun avec ses propres substrats neuraux et ses propres règles de fonctionnement.

L'anosognosie : Le déni neurologique de la réalité

L'anosognosie pour l'hémiplégie est peut-être le syndrome le plus déroutant de tous. Suite à un AVC affectant l'hémisphère droit, certains patients deviennent paralysés du côté gauche mais nient catégoriquement cette paralysie. Ce n'est pas un déni psychologique, c'est un déficit neurologique de la conscience de soi, décrit pour la première fois par Joseph Babinski en 1914.

Demandez à ces patients de lever leur bras gauche paralysé, et ils affirmeront l'avoir fait, même si le bras n'a pas bougé d'un millimètre. Certains inventent des excuses élaborées ("J'ai mal au bras aujourd'hui", "Je n'ai pas envie"), d'autres affirment que le bras paralysé appartient à quelqu'un d'autre. Un patient peut regarder son propre bras gauche et affirmer qu'il appartient au médecin ou à un visiteur invisible.

Comment un modèle cognitif unifié pourrait-il expliquer qu'une personne puisse perdre la conscience d'une partie de son propre corps tout en maintenant une intelligence normale, une mémoire intacte, et même un sens de l'humour ? C'est impossible sans admettre que la conscience corporelle est un module distinct qui peut être sélectivement endommagé (et très probablement que ce module est lui-même une collection de modules).

III. Implications Théoriques : L'Impossibilité Structurelle d'une Théorie Unifiée

A. La réalisabilité multiple : Le même résultat, des chemins différents

Le principe de réalisabilité multiple, popularisé par Hilary Putnam, stipule que le même état mental peut être réalisé par différents états physiques. Dans le contexte de la neuropsychologie, cela signifie que différentes régions cérébrales peuvent, dans certaines circonstances, assumer les fonctions d'autres régions endommagées.

Les enfants qui subissent une hémisphérectomie (ablation d'un hémisphère entier) pour traiter l'épilepsie peuvent développer des capacités linguistiques quasi-normales, même si l'hémisphère gauche (normalement dominant pour le langage) est retiré. L'hémisphère droit peut "apprendre" à gérer le langage, mais d'une manière subtilement différente : souvent avec des déficits pragmatiques persistants.

Cette plasticité n'est pas une preuve d'unification ; c'est exactement le contraire. Elle montre que le cerveau est constitué de modules flexibles qui peuvent être reconfigurés, mais qui restent fondamentalement distincts. C'est comme dire qu'un ordinateur est "unifié" parce qu'on peut utiliser le processeur graphique pour faire des calculs normalement effectués par le CPU. Les composants restent distincts même s'ils peuvent parfois se substituer l'un à l'autre.

B. La spécificité fonctionnelle : Une lésion, un déficit

La neuropsychologie nous a appris une leçon fondamentale : les lésions cérébrales focales produisent des déficits spécifiques et prévisibles. Une lésion de l'aire V4 produit une achromatopsie (perte de la vision des couleurs). Une lésion de l'aire MT/V5 produit une akinétopsie (incapacité de percevoir le mouvement). Une lésion de l'amygdale produit une perte de la peur conditionnée.

Cette correspondance entre localisation anatomique et fonction cognitive est incompatible avec une théorie unifiée. Si la cognition était vraiment unifiée, les lésions devraient produire des déficits globaux proportionnels à leur taille, pas des déficits spécifiques liés à leur localisation.

Les doubles dissociations observées en neuropsychologie sont particulièrement révélatrices. Patient A peut perdre la capacité de nommer les outils mais pas les animaux ; Patient B présente le pattern inverse. Patient C peut perdre les verbes mais pas les noms ; Patient D, l'inverse. Ces dissociations croisées prouvent que ces catégories cognitives sont traitées par des systèmes neuraux distincts. Je suis tenté dès maintenant de placer un CQFD bien senti mais je me retiens.

C. La plasticité différentielle : Tous les modules ne sont pas égaux

La récupération après une lésion cérébrale varie énormément selon le système affecté. Les fonctions motrices peuvent montrer une récupération remarquable grâce à la plasticité. Le langage chez l'enfant peut se réorganiser complètement. Mais la prosopagnosie congénitale reste généralement permanente. L'anosognosie disparaît souvent spontanément après quelques semaines. Certains types d'amnésie ne s'améliorent jamais.

Cette variabilité dans la récupération suggère que différents modules cognitifs ont différents degrés de plasticité, différentes capacités de compensation, différentes redondances intégrées. Un système vraiment unifié devrait montrer des patterns de récupération plus uniformes.

Il convient de noter que cette argumentation en faveur de la modularité cognitive, bien qu'étayée par de nombreuses évidences neuropsychologiques, fait elle-même l'objet de débats dans la communauté scientifique. Certains chercheurs proposent des modèles hybrides qui tentent de concilier aspects modulaires et processus unifiés. Le souci c'est que ces modèles hybrides s'ils sont exacts invalident donc les deux approches antérieures car s'il y a unification alors le modulaire est faux et réciproquement (la logique classique insiste malgré les siècles et l'approche quantique, je sais je taquine encore). L'hybride ici semble davantage relever des célèbres chèvre et chou qu'il conviendrait de ménager.

IV. L'IA et la Théorie Unifiée : Une Alliance Contre Nature

A. Les LLMs ne pensent pas, ils prédisent

Revenons maintenant à notre Centaur moderne et aux prétentions de l'IA à capturer la cognition humaine. Les Large Language Models, malgré leurs performances impressionnantes, fonctionnent sur un principe fondamentalement différent de la cognition humaine : la prédiction du prochain token basée sur des patterns statistiques.

Un LLM n'a pas de mémoire épisodique : il ne se souvient pas d'avoir eu une conversation avec vous hier. Il n'a pas de mémoire procédurale : il ne peut pas apprendre à faire du vélo en pratiquant. Il n'a pas de système perceptuel : il traite des tokens, pas des expériences sensorielles. Il n'a pas d'émotions, pas de motivations, pas de conscience corporelle. Je sais... je n'en jette plus : la cour est pleine.

Dire qu'un LLM capture la cognition humaine parce qu'il peut prédire les réponses dans des tâches psychologiques, c'est comme dire qu'un thermostat comprend la température parce qu'il peut la réguler. La simulation comportementale n'est pas la compréhension cognitive. Je ne peux m'empêcher d'évoquer le terme de simulacre cher à Philip K. Dick et qui l'a très souvent utilisé dans ses romans et nouvelles. On peut toujours penser qu'on est en fait exactement comme nos simulacres (IA et consorts) et que notre cerveau ne fonctionne que sur un modèle statistique prédictif probabiliste avec des marges d'erreurs volontaires mais, et c'est ce mais qui implique tout, comment un système probabiliste même conçu dans l'optique de la théorie du chaos (désuète aujourd'hui me semble-t-il à moins qu'on continue avec la bêtise du papillon qui provoque des tornades ; ma formulation précédente est erronée, en voulant plaisanter j'ai introduit une affirmation fausse concernant une désuétude supposée de la théorie du chaos ce qui est faux, l'arroseur arrosé... ça m'apprendra) ou de la mécanique quantique peut-il amener à la production d'une scène de la conscience pour un sujet supposé (nous) qui en sommes spectateur ? Si quelqu'un a le début du quart de poil d'un gluon de prolégomène d'idée de réponse, il est le bienvenu !

B. L'erreur de la généralisation abusive

Les chercheurs de Centaur soulignent que leur modèle a bien performé sur des tâches "out-of-distribution" c'est-à-dire des tâches différentes de celles sur lesquelles il a été entraîné. Cependant, généraliser entre des tâches de laboratoire artificielles représente un défi différent de celui de posséder une cognition véritablement générale.

Les tâches psychologiques utilisées pour entraîner Centaur (bandits multi-bras, prise de décision dans l'incertitude, tâches de mémoire) sont des abstractions contrôlées de la cognition réelle. Elles capturent des aspects isolés du comportement dans des conditions expérimentales. L'extrapolation de ces performances à une compréhension complète de la cognition humaine reste une hypothèse qui mérite d'être examinée avec prudence. J'utilise l'euphémisme car à l'évidence c'est l'hypothèse elle-même qui repose sur des bases extrêmement ténues, en fait je pense inexistantes. Mais ce n'est que mon avis.

C. Le problème de l'embodiment ignoré

La cognition humaine est profondément incarnée. Notre pensée est façonnée par notre corps, nos sens, nos interactions physiques avec le monde. La douleur influence le jugement. La faim modifie la prise de décision. La fatigue altère l'attention. Les hormones affectent la mémoire. Le système vestibulaire influence la cognition spatiale...

Les LLMs n'ont rien de tout cela. Ils existent dans un espace vectoriel abstrait, manipulant des représentations symboliques sans ancrage dans la réalité physique. Prétendre qu'ils peuvent capturer la cognition humaine sans corps, sans sensations, sans besoins biologiques, c'est ignorer des décennies de recherche en cognition incarnée, réelle, vivante, bref portée par nous humains.

V. La Leçon des Frères Wright : Pourquoi Copier le Cerveau est une Erreur Fondamentale

A. Quand l'aviation a cessé d'imiter les oiseaux

L'histoire de l'aviation nous offre une leçon instructive que certains développements actuels en IA semblent parfois négliger, à tort je pense. Pendant des siècles, les inventeurs ont tenté de voler en imitant les oiseaux. Icare avec ses ailes de cire et de plumes (oui je sais j'abuse un peu là). Léonard de Vinci avec ses ornithoptères aux ailes battantes. Des générations d'inventeurs qui sautaient de tours avec des ailes attachées aux bras, convaincus que le secret du vol résidait dans l'imitation fidèle de la nature.

Tous ont échoué. Pourquoi ? Parce qu'ils confondaient le résultat (voler) avec le mécanisme (battre des ailes). Ils ne comprenaient pas que les oiseaux volent non pas grâce à leurs plumes et leur battement d'ailes, mais grâce aux principes aérodynamiques de portance et de traînée que ces mécanismes exploitent.

Les frères Wright ont réussi là où des siècles d'imitateurs aviaires avaient échoué. Comment ? En abandonnant complètement l'idée de copier les oiseaux. Pas d'ailes battantes. Pas de plumes. Pas de muscles pectoraux artificiels. À la place : des ailes fixes, une hélice, un moteur à combustion. Une solution radicalement différente qui exploitait les mêmes principes physiques (la portance) mais avec des mécanismes adaptés aux matériaux et contraintes disponibles.

L'avion ne vole pas comme un oiseau. Il vole différemment d'un oiseau, mais il vole. Et c'est précisément parce qu'il ne cherche pas à être un oiseau qu'il peut voler plus vite, plus haut, plus longtemps, et transporter des charges qu'aucun oiseau ne pourrait porter. Oui je sais j'abuse encore...

B. Le substrat détermine les propriétés : Silicium vs Neurones

Les chercheurs de Centaur tentent de faire "penser" le silicium comme pensent les neurones biologiques. C'est une entreprise complexe (j'euphémise encore) pour des raisons fondamentales de physique et de chimie.

Considérons les différences de substrat :

Les neurones biologiques :

  • Vitesse de propagation : ~120 m/s maximum pour les axones myélinisés
  • Traitement : Électrochimique, avec neurotransmetteurs et récepteurs
  • Énergie : Glucose et oxygène, environ 20 watts pour tout le cerveau
  • Architecture : Massivement parallèle, ~86 milliards de neurones
  • Plasticité : Modification continue des synapses, neurogenèse
  • Bruit : Stochastique inhérent, variabilité synaptique
  • Temps de réponse : Millisecondes à secondes.

Les circuits en silicium :

  • Vitesse de propagation : ~200,000 km/s (2/3 de la vitesse de la lumière)
  • Traitement : Électrique pur, transistors binaires
  • Énergie : Électricité, centaines de watts pour un GPU moderne
  • Architecture : Largement séquentielle avec parallélisme limité
  • Plasticité : Poids fixes après entraînement
  • Bruit : Minimal, déterministe
  • Temps de réponse : Nanosecondes.

Ces différences ne sont pas des détails techniques mineurs. Elles sont fondamentales. Un neurone biologique est une cellule vivante qui baigne dans un bouillon chimique, sensible à des centaines de molécules différentes, capable de modifier sa structure physique, de créer de nouvelles connexions, même de mourir et d'être remplacée. Un transistor est un interrupteur électrique qui passe du 0 au 1 (laisse passer ou bloque le courant électrique).

C. L'émergence n'est pas transférable entre substrats

Les propriétés émergentes d'un système dépendent intrinsèquement du substrat sur lequel elles reposent. C'est un principe fondamental de la physique des systèmes complexes.

La conscience, la cognition, l'intelligence humaine sont des propriétés émergentes d'un système biologique spécifique. Elles émergent de l'interaction de milliards de neurones biologiques, eux-mêmes composés de protéines, baignant dans des neurotransmetteurs, régulés par des hormones, alimentés par le glucose, sensibles à la température, au pH, à l'oxygénation...

Vous ne pouvez pas plus transférer ces propriétés émergentes dans du silicium que vous ne pouvez transférer la saveur d'une fraise dans une équation mathématique. La saveur de la fraise émerge de l'interaction de centaines de molécules avec nos récepteurs gustatifs et olfactifs. Vous pouvez créer un arôme artificiel qui active certains des mêmes récepteurs, mais ce ne sera jamais identique car il manquera la complexité moléculaire du fruit réel.

De même, un LLM peut produire du texte qui ressemble à de la pensée humaine, mais ce n'est pas de la pensée humaine. C'est de la manipulation statistique de symboles par des circuits électriques. C'est différent dans son essence même.

D. Les contraintes physiques façonnent la cognition

Notre cognition n'est pas un algorithme abstrait qui pourrait être implémenté sur n'importe quel substrat. Elle est profondément façonnée par les contraintes physiques de notre cerveau biologique.

La lenteur neuronale force la parallélisation : Parce que les neurones sont lents (millisecondes), le cerveau doit traiter massivement en parallèle pour réagir en temps réel. Cette parallélisation n'est pas un choix d'architecture, c'est une nécessité imposée par la physique. Un ordinateur n'a pas cette contrainte : il peut être séquentiel et rapide.

La fatigue synaptique impose le repos : Les synapses s'épuisent, les neurotransmetteurs doivent être resynthétisés, les déchets métaboliques évacués. D'où le sommeil, les rythmes circadiens, les fluctuations attentionnelles. Un GPU n'a pas besoin de dormir.

La mort cellulaire impose la redondance : Des neurones meurent constamment. Le cerveau doit donc avoir une redondance massive et une plasticité continue pour maintenir ses fonctions. Un circuit en silicium ne meurt pas cellule par cellule.

L'embodiment impose la multimodalité : Notre cognition est façonnée par nos sens, nos besoins corporels, nos émotions viscérales. La faim modifie littéralement notre prise de décision. La peur change notre perception. Un LLM n'a ni faim, ni peur, ni corps.

E. L'erreur de l'isomorphisme fonctionnel

Les promoteurs de Centaur tombent dans le piège de l'isomorphisme fonctionnel : l'idée que si deux systèmes produisent les mêmes outputs pour les mêmes inputs, ils sont fonctionnellement équivalents. C'est profondément trompeur.

Une calculatrice peut produire le même résultat qu'un mathématicien pour "2+2=?", mais cela ne signifie pas qu'elle "comprend" l'addition comme le mathématicien. Elle applique un circuit électrique câblé. Le mathématicien active des représentations conceptuelles liées à ses expériences de comptage, de quantité, de manipulation d'objets.

De même, Centaur peut prédire qu'un humain choisira l'option A plutôt que B dans une tâche expérimentale. Mais il le fait par pattern matchingstatistique, pas par les mêmes processus cognitifs que l'humain. C'est comme dire qu'un thermostat "sait" qu'il fait froid parce qu'il allume le chauffage. Non, il réagit mécaniquement à une mesure de température.

F. La voie de l'intelligence artificielle authentique

Si nous voulons créer une intelligence artificielle véritablement puissante et utile, nous devons suivre la leçon des frères Wright : exploiter les forces uniques du silicium plutôt que d'essayer de copier le cerveau.

Les forces du silicium que le cerveau n'a pas :

  • Vitesse de traitement phénoménale
  • Mémoire parfaite et potentiellement illimitée
  • Capacité de traitement exact et déterministe
  • Communication instantanée à distance
  • Duplication parfaite des connaissances
  • Absence de fatigue
  • Mise à jour instantanée.

Au lieu de créer un simulacre imparfait de cerveau en silicium, créons une intelligence authentiquement artificielle qui exploite ces forces. Une intelligence qui peut traiter des millions de documents en quelques secondes, maintenir une cohérence parfaite sur des raisonnements impliquant des milliers d'étapes, communiquer instantanément avec d'autres IA à travers le globe.

Cette intelligence ne sera pas humaine, et c'est tant mieux. Elle sera complémentaire, capable de ce que nous ne pouvons pas faire, comme nous sommes capables de ce qu'elle ne pourra jamais faire : ressentir, désirer, créer véritablement, aimer (oui bon j'ai décidé de terminer par un peu de poésie, bah quoi on peut être un peu fleur bleue dans ce monde d'artifices non ?).

VI. L'Appât du Gain : Les Dynamiques Économiques de l'IA

A. La ruée vers l'or cognitif

L'adoption enthousiaste de théories unifiées de la cognition par certains acteurs de l'industrie de l'IA s'inscrit dans un contexte économique spécifique. Le marché de l'IA est estimé à plusieurs centaines de milliards de dollars, et la promesse d'une IA qui "pense comme un humain" représente un argument marketing particulièrement attractif pour les investisseurs.

Les dynamiques de financement dans le domaine favorisent naturellement les projets ambitieux aux promesses spectaculaires. Une théorie unifiée de la cognition, capturée dans un modèle d'IA, correspond précisément au type de proposition qui peut générer de l'intérêt et des financements substantiels.

Le projet Centaur illustre cette dynamique. Les chercheurs ont obtenu des financements de prestigieuses institutions incluant la Max Planck Society, la Humboldt Foundation, et la NOMIS Foundation. La publication dans Nature génère une couverture médiatique enthousiaste. Cette visibilité, indépendamment des questions scientifiques que l'on peut légitimement poser sur l'approche, démontre l'attrait de ces projets ambitieux dans l'écosystème actuel de l'innovation.

B. Le recyclage perpétuel des idées abandonnées

L'idée d'une théorie cognitive unifiée n'est pas nouvelle. Elle remonte au moins aux années 1950 avec la naissance de la science cognitive. Le béhaviorisme prétendait unifier la psychologie sous les lois du conditionnement. Le cognitivisme classique voyait l'esprit comme un ordinateur unifié. Le connexionnisme des années 1980 promettait une théorie unifiée basée sur les réseaux de neurones.

Chacune de ces tentatives s'est heurtée au mur de la complexité cognitive réelle. Chacune a dû être abandonnée ou drastiquement modifiée face aux données empiriques. Et pourtant, voici que l'IA moderne ressuscite ces idées anciennes, les modernise avec de nouvelles technologies, et les présente sous un jour nouveau.

C'est un pattern récurrent dans l'histoire de la technologie. Les NFTs ont revisité l'idée de la propriété numérique. La blockchain a réactualisé le concept du grand livre distribué. Le métavers a remis au goût du jour l'idée des mondes virtuels. À chaque fois, une technologie émergente est utilisée pour explorer à nouveau des concepts qui avaient rencontré des limites dans leurs incarnations précédentes. En mathématiques on continue avec la logique, passée de classique (dans l'impasse depuis plusieurs millénaires) à moderne... avec toujours des impasses. C'est en fait assez général ce recyclage d'idées anciennes car il repose sur l'enthousiasme des passionnés (je vais réussir là où les autres ont échoué, j'y crois vraiment) et aussi sur la vente à nouveau car ce qui a été désiré un jour peut l'être à nouveau si on y met les formes cohérentes avec l'époque actuelle considérée (marketing). Il n'y a qu'à regarder les changements d'affiches et même de nom de certains films sur les plateformes de streaming avec les statistiques de visionnage pour confirmer cela.

C. Les biais structurels du système de recherche

Le système actuel de publication scientifique peut involontairement favoriser certains types de recherche au détriment d'autres. Des études récentes ont documenté les pressions de publication dans le milieu académique et leur impact sur la nature des recherches entreprises.

Un article expliquant méthodiquement pourquoi une théorie unifiée de la cognition fait face à des obstacles insurmontables attire généralement moins d'attention qu'un article promettant une "percée révolutionnaire" avec un modèle aux performances impressionnantes sur des benchmarks artificiels. Marketing là aussi.

Ces dynamiques systémiques, bien analysées dans la littérature sur la sociologie des sciences, créent un environnement où les promesses ambitieuses peuvent être récompensées plus facilement que la prudence méthodologique. La tension entre rigueur scientifique et impératifs de publication constitue un défi reconnu dans le monde académique contemporain.

VII. Les Leçons du Passé : Pourquoi les Théories Unifiées Échouent Toujours

A. L'histoire des théories ambitieuses

L'histoire de la psychologie et des sciences cognitives est jalonnée de tentatives de théories unifiées qui ont finalement dû être reconsidérées. Le structuralisme de Wundt visait à décomposer la conscience en éléments fondamentaux. Le béhaviorisme de Watson et Skinner cherchait à réduire toute la psychologie aux lois du conditionnement. La psychanalyse freudienne proposait une architecture unifiée de l'esprit avec le ça, le moi et le surmoi.

Chacune de ces théories a apporté des contributions importantes à notre compréhension de l'esprit, mais chacune a rencontré des limites dans son ambition d'explication totale. La raison principale ? La cognition humaine présente une complexité et une diversité qui résistent aux explications monolithiques. Dis autrement : c'est bien trop complexe pour pouvoir être appréhendé dans sa totalité par un discours conscient et rendu par quelques paragraphes, voire même par une encyclopédie. Mais ça c'est pas marketing alors on ne le dit pas trop ainsi.

Le cas du béhaviorisme est particulièrement instructif. Pendant des décennies, il a dominé la psychologie américaine avec sa promesse de réduire tout comportement aux lois du conditionnement. La révolution cognitive des années 1960, initiée notamment par les travaux de Noam Chomsky sur le langage, a ensuite mis en évidence la nécessité de considérer l'esprit comme un système actif de traitement de l'information plutôt qu'une simple boîte noire passive.

B. Le problème de la validation empirique

Une théorie unifiée de la cognition devrait pouvoir expliquer et prédire tous les phénomènes cognitifs. Mais comment valider une telle théorie ? Les expériences psychologiques ne testent que des aspects limités de la cognition dans des conditions artificielles. Les études de neuroimagerie montrent des corrélations, pas des mécanismes causaux. Ce n'est jamais les mécanismes eux-mêmes qui sont capturés par la neuroimagerie, il faut bien le comprendre. C'est par des media qu'on interprète, tel le taux d'oxygénation du sang qui indique une activité à un endroit précis. Les modèles computationnels peuvent simuler des comportements sans nécessairement capturer les processus sous-jacents.

Le défi fondamental est que nous n'avons pas accès direct à la cognition. Nous ne pouvons observer que ses manifestations comportementales et ses corrélats neuraux. C'est comparable à essayer de comprendre le fonctionnement d'un ordinateur en observant uniquement l'écran et en mesurant la température du processeur.

Centaur démontre de bonnes performances sur des tâches psychologiques spécifiques. Les chercheurs rapportent qu'il capture mieux le comportement des participants que les modèles cognitifs existants. Mais reproduire des patterns comportementaux reste distinct de la compréhension des mécanismes cognitifs. Un système peut imiter des comportements sans posséder les processus cognitifs qui les génèrent chez l'humain.

C. L'illusion de la simplicité

Les théories unifiées sont séduisantes parce qu'elles promettent la simplicité. Un principe, une équation, un modèle pour tout expliquer. C'est le rêve de la physique appliqué à l'esprit. Mais l'esprit n'est pas la physique. Il n'y a pas d'E=mc² de la cognition.

La cognition est le produit de l'évolution biologique, un processus opportuniste et bricoleur qui accumule des solutions ad hoc à des problèmes spécifiques. Le résultat n'est pas un système élégant et unifié mais un patchwork de modules, de raccourcis, de redondances et de contradictions. Chercher une théorie unifiée de la cognition, c'est comme chercher une théorie unifiée de la vie : une quête complexe à cause de la nature même de son objet.

VIII. L'IA et le Mirage de l'Intelligence Générale

A. La confusion entre performance et compréhension

Les LLMs actuels peuvent produire du texte cohérent, répondre à des questions complexes, même écrire de la poésie. Cette performance impressionnante crée l'illusion qu'ils "comprennent". Mais la compréhension humaine n'est pas juste la capacité de produire des outputs appropriés ; c'est la capacité de relier des concepts à des expériences, de former des modèles mentaux, d'avoir des insights.

Un LLM peut vous expliquer la douleur sans jamais l'avoir ressentie. Il peut décrire l'amour sans jamais l'avoir éprouvé. Il peut analyser l'humour sans jamais avoir ri. Cette dissociation entre performance linguistique et expérience vécue est fondamentale. C'est la différence entre savoir que Paris est la capitale de la France et avoir marché dans ses rues, senti l'odeur des croissants, entendu le bruit de la circulation.

B. Le problème de l'ancrage symbolique

Les symboles manipulés par les LLMs n'ont pas d'ancrage dans le monde réel. Le mot "chat" pour un LLM n'est qu'un vecteur dans un espace de haute dimension, relié statistiquement à d'autres vecteurs. Pour un humain, "chat" évoque des images, des sons, des textures, des souvenirs, des émotions.

Ce problème d'ancrage symbolique n'est pas un détail technique à résoudre ; c'est une différence fondamentale entre cognition artificielle et cognition biologique. Sans ancrage dans l'expérience sensorielle et émotionnelle, les LLMs manipulent des symboles vides. C'est la distinction évidente entre vivant et artificiel mais devoir le rappeler ici n'est vraiment pas de bon augure, me semble-t-il.

C. L'intelligence sans conscience

Peut-il y avoir intelligence sans conscience ? Les LLMs suggèrent que oui : ils peuvent résoudre des problèmes complexes sans aucune expérience subjective apparente. Mais cette intelligence sans conscience est-elle vraiment de l'intelligence au sens humain du terme ? Par intelligence il faut bien entendre ce mot aux multiples définitions souvent contradictoires telles : la capacité de résoudre des problèmes qui se posent à nous pour la première fois, la capacité de discerner les ressemblances dans des objets et/ou concepts apparemment distincts, la capacité d'assembler dans de nouvelles configurations l'existant, etc.

La conscience n'est pas un épiphénomène superflu de la cognition ; elle est intimement liée à nos capacités cognitives. C'est la conscience qui nous permet de prendre connaissance des intentions, des désirs, des craintes : tous éléments essentiels de la cognition humaine. Un système sans conscience peut simuler ces aspects mais ne peut pas véritablement les posséder, notamment dans leurs actions inconscientes.

D. Le test de Turing inversé

Alan Turing proposait qu'une machine soit considérée intelligente si elle peut tromper un humain en se faisant passer pour humaine. Mais ce test mesure la capacité de simulation, pas l'intelligence véritable. Un acteur peut simuler un médecin sans avoir de connaissances médicales.

Nous devrions plutôt appliquer un "test de Turing inversé" : une machine est véritablement intelligente non pas quand elle peut imiter l'humain, mais quand elle peut faire des choses que l'humain ne peut pas faire en exploitant ses propres capacités uniques. Les ordinateurs d'échecs ne jouent pas comme les humains : ils calculent des millions de positions. Et c'est précisément pour cela qu'ils nous battent.

IX. Le Futur de l'IA : Au-delà des Fantasmes Unificateurs

A. Vers des architectures cognitives hybrides

L'avenir de l'IA pourrait résider dans le développement d'architectures hybrides qui combinent différents types de traitement de l'information. Imaginez un système avec :

  • Des réseaux convolutionnels pour la vision
  • Des transformateurs pour le langage
  • Des réseaux récurrents pour la mémoire séquentielle
  • Des systèmes symboliques pour le raisonnement logique
  • Des mécanismes d'attention pour la coordination.

Ces composants ne seraient pas unifiés mais intégrés, communiquant via des interfaces bien définies, chacun optimisé pour son domaine spécifique. C'est moins élégant qu'une théorie unifiée, mais potentiellement plus proche de la réalité cognitive.

B. L'importance de la spécialisation

Au lieu de chercher à créer une AGI monolithique (une IA globale en quelque sorte), nous pourrions développer des IA spécialisées qui excellent dans des domaines spécifiques. Un système expert en diagnostic médical n'a pas besoin de comprendre la poésie. Un système de traduction n'a pas besoin de jouer aux échecs.

Cette spécialisation n'est pas une limitation mais une force. Elle permet une optimisation ciblée, une validation plus rigoureuse, une interprétabilité accrue. C'est aussi plus aligné avec la façon dont l'intelligence biologique s'est développée : par spécialisation et division du travail cognitif.

C. L'humilité comme principe de conception

Les concepteurs d'IA pourraient bénéficier de l'adoption de l'humilité comme principe directeur. Reconnaître les limites de nos systèmes, être transparents sur ce qu'ils peuvent et ne peuvent pas faire, éviter les promesses grandioses et les appellations trompeuses. Évidemment c'est contre-marketing. Du coup comment financer leurs études ? Oui le serpent se mord assez rapidement la queue.

Au lieu de prétendre créer une "intelligence artificielle générale", parlons de "systèmes de traitement de l'information avancés". Au lieu de promettre une "conscience artificielle", développons des "systèmes de coordination cognitive". Moins spectaculaire pour les investisseurs, mais plus honnête scientifiquement. Mais sans investisseur la science... oui je taquine encore.

D. La complémentarité plutôt que le remplacement

L'objectif ne devrait pas être de créer une IA qui remplace l'intelligence humaine, mais une IA qui la complète. Les humains sont excellents pour la créativité, l'intuition, l'empathie, le jugement moral. Les machines sont excellentes pour le calcul, la mémorisation, la cohérence, l'analyse de grandes quantités de données.

Au lieu d'essayer de faire ce que les humains font déjà bien, concentrons-nous sur ce que les machines peuvent faire mieux. Une IA qui peut analyser des millions de documents médicaux pour aider au diagnostic. Une IA qui peut optimiser les chaînes logistiques complexes. Une IA qui peut détecter des patterns dans des données que l'œil humain ne pourrait jamais voir.

Il faut faire une petite pause ici à la case capitalisme. Cette volonté de remplacer l'humain n'est pas gratuite et ne vient pas de nul part. Le capitalisme dans son acception initiale, l'exploitation de l'Homme par l'Homme, montre bien que pour être relativement sécurisée elle doit proposer une contrepartie (un dédommagement généralement appelé salaire). Le fantasme capitaliste c'est la disparition du salaire. Je sais que je caricature mais je ne pense pas être dans l'erreur malheureusement. Les salaires coûtent trop cher, qui honnêtement peut affirmer que ça n'a jamais été un argument réellement déployé par le capitalisme et ses représentants ? Hé bien quand cela rencontre la volonté de scientifique de copier parfaitement l'humain pour prouver qu'ils le peuvent (vanité quand tu nous tiens) contrairement aux autres, nous obtenons ce fantasme du remplacement de l'humain par la machine ! Mais pas n'importe quel humain : le travailleur rémunéré. Je clos cette parenthèse mais elle me paraît essentielle pour ne pas omettre l'approche du pourquoi remplacer l'humain.

X. Au-delà de l'Échec : Vers une Théorie Véritablement Intégrative

A. Les approches prometteuses actuelles

La Global Neuronal Workspace Theory (GNWT)

La théorie de l'espace de travail neuronal global, développée principalement par Stanislas Dehaene et ses collègues, propose que la conscience émerge d'un "espace de travail global" où l'information devient accessible à travers le cerveau. Selon cette théorie, l'information reste inconsciente tant qu'elle est traitée localement dans des modules spécialisés. Elle devient consciente lorsqu'elle est "globalisée" via un processus d'"ignition" neuronale tardive (~300ms après le stimulus) caractérisé par une synchronisation à longue distance entre régions cérébrales.

Cette approche est intéressante car elle est compatible avec la modularité : elle reconnaît l'existence de modules spécialisés tout en proposant un mécanisme d'intégration. Cependant, l'étude récente de Melloni et al. (2025) dans Nature révèle des limites importantes : les résultats montrent "un manque général d'ignition à l'arrêt du stimulus", défiant ainsi une prédiction centrale de la théorie.

La Théorie de l'Information Intégrée (IIT)

Développée par Giulio Tononi depuis 2004, l'IIT propose que la conscience correspond à l'information intégrée (Φ) dans un système. Selon cette théorie, tout système possédant une architecture récurrente avec des boucles de rétroaction suffisamment complexes possède un certain degré de conscience. L'attrait de l'IIT réside dans sa proposition d'une métrique quantitative de la conscience.

Cependant, l'étude de Melloni et al. (2025) contredit également "l'affirmation que la connectivité réseau spécifie la conscience". Les résultats multimodaux (iEEG, fMRI et MEG) défient des principes clés de l'IIT, notamment concernant le rôle du cortex préfrontal dans la conscience.

Le Predictive Processing Framework

Karl Friston a proposé en 2010 dans Nature Reviews Neuroscience un principe d'énergie libre qui pourrait unifier différentes théories du cerveau. Selon ce cadre, le cerveau minimise constamment l'erreur de prédiction entre ses modèles internes et les entrées sensorielles via l'inférence active. Cette approche unifie perception, action et apprentissage sous un principe computationnel unique.

Il est important de noter que des chercheurs comme Anil Seth et Jakob Hohwy proposent maintenant le Predictive Processing comme un "outil pour la science de la conscience" plutôt qu'une théorie de la conscience en soi. Cette nuance est cruciale : elle reconnaît la valeur du cadre tout en évitant les prétentions excessives d'unification totale.

B. Les architectures cognitives intégratives existantes

L'architecture ACT-R (Adaptive Control of Thought-Rational), développée par John Anderson et ses collègues, offre un exemple intéressant d'approche modulaire intégrée. Elle combine mémoire déclarative et procédurale avec un contrôle exécutif, et a réussi à prédire l'activation cérébrale régionale pendant des tâches cognitives spécifiques. Cependant, ACT-R reste focalisé sur la cognition plutôt que sur la conscience, illustrant la difficulté de passer de la modélisation cognitive à la compréhension de l'expérience subjective.

C. Ce qui distingue une théorie unifiée viable

Les évidences actuelles suggèrent qu'une théorie unifiée viable devrait respecter plusieurs critères essentiels :

  1. Respect de la modularité : Intégrer les modules sans nier leur existence distincte
  2. Mécanismes d'intégration explicites : Expliquer comment les modules communiquent et coordonnent leurs activités
  3. Testabilité empirique : Proposer des prédictions vérifiables par neuroimagerie et études de lésions
  4. Gradualité : Expliquer les niveaux de conscience plutôt qu'un état binaire conscient/inconscient
  5. Plasticité différentielle : Expliquer pourquoi certains modules récupèrent mieux que d'autres après une lésion.

L'échec relatif des théories actuelles à satisfaire tous ces critères simultanément illustre la complexité du défi. Les résultats de l'étude Melloni et al. (2025) sont particulièrement révélateurs : même dans une collaboration adversariale soigneusement conçue, les résultats "remettent substantiellement en question les principes clés des deux théories" (GNWT et IIT). Dis autrement : c'est pas gagné !

Conclusion : La Sagesse de Phineas Gage et la Leçon des Frères Wright

Bilan critique de l'état actuel

L'examen de Centaur et des théories actuelles de la conscience révèle un paysage complexe où les ambitions théoriques se heurtent aux réalités empiriques. Centaur représente un exemple paradigmatique des limites actuelles : malgré ses performances techniques impressionnantes sur des tâches psychologiques spécifiques, il perpétue la confusion entre simulation comportementale et compréhension cognitive réelle. Les LLMs, même ajustés finement sur des données psychologiques massives, restent fondamentalement des systèmes de prédiction statistique sans ancrage dans l'expérience incarnée qui caractérise la cognition humaine.

Les progrès récents dans la compréhension de la conscience montrent néanmoins une évolution encourageante. L'étude de Melloni et al. (2025) dans Nature, par son approche de collaboration adversariale, marque un tournant dans la reconnaissance des limites des théories dominantes. Les résultats, qui défient à la fois la GNWT et l'IIT, suggèrent que le champ commence à accepter que les approches monolithiques sont insuffisantes. L'émergence d'approches plus nuancées, comme la reconceptualisation du Predictive Processing comme "outil" plutôt que comme théorie complète, témoigne d'une maturité croissante dans le domaine.

Vers une théorie unifiée viable

Si une théorie unifiée de la cognition reste un objectif légitime, elle devra prendre une forme radicalement différente de ce que propose actuellement l'approche Centaur. Une théorie unifiée bien conçue devrait porter sur les mécanismes d'intégration entre modules plutôt que sur une cognition monolithique. Elle devrait expliquer comment des systèmes spécialisés coordonnent leurs activités pour produire l'expérience unifiée de la conscience tout en préservant leur autonomie fonctionnelle.

L'exemple de la GNWT, malgré ses limites révélées par Melloni et al., offre une piste intéressante : elle préserve l'idée de modularité tout en proposant un mécanisme d'unification via l'espace de travail global. De même, l'approche du Predictive Processing de Friston suggère des principes computationnels partagés (minimisation de l'erreur de prédiction) qui pourraient opérer dans des modules distincts. Ces approches, bien qu'imparfaites, reconnaissent au moins la complexité architecturale révélée par des décennies de neuropsychologie.

Cependant, ce n'est pas ce que fait Centaur. En tentant de capturer la cognition humaine via l'ajustement fin d'un modèle de langage, il perpétue l'erreur d'isomorphisme fonctionnel : l'idée fausse que reproduire des outputs comportementaux équivaut à comprendre les mécanismes cognitifs. Les résultats empiriques récents remettent substantiellement en question cette approche, confirmant que la complexité de la cognition résiste aux simplifications algorithmiques.

L'avenir de l'IA cognitive

Pour progresser véritablement, le développement de l'IA devrait suivre la leçon des frères Wright : exploiter les forces uniques du silicium plutôt que d'imiter servilement le carbone. Mais cette leçon doit maintenant intégrer les insights des véritables théories intégratives. Des architectures hybrides inspirées d'ACT-R ou de la GNWT, qui respectent la modularité tout en proposant des mécanismes d'intégration, offrent une voie plus prometteuse que les simulations comportementales superficielles.

L'avenir de l'IA cognitive ne réside pas dans la création de simulacres de pensée humaine via des LLMs, mais dans le développement de systèmes qui exploitent leurs capacités computationnelles uniques tout en s'inspirant des principes organisationnels découverts par les neurosciences. Cela signifie abandonner la quête naïve d'une AGI qui "pense comme un humain" au profit d'intelligences artificielles authentiquement complémentaires.

Héritage de Gage et leçon finale

Revenons une dernière fois à Phineas Gage et aux frères Wright. Gage nous enseigne que le cerveau est irréductiblement modulaire : sa barre de fer a révélé une architecture cognitive compartimentée que deux siècles de recherche n'ont fait que confirmer. Les Wright nous enseignent que l'innovation véritable vient de la compréhension des principes fondamentaux appliqués avec des technologies appropriées, non de l'imitation superficielle de solutions naturelles.

Une théorie unifiée viable devra honorer ces deux leçons : reconnaître la modularité tout en proposant des mécanismes d'intégration crédibles, et exploiter les forces computationnelles uniques plutôt que de simuler maladroitement des processus biologiques. Centaur, avec ses ambitions et ses limitations, représente peut-être davantage le passé que l'avenir : une étape nécessaire mais transitoire dans notre compréhension de la cognition.

Les investisseurs continueront probablement à s'intéresser aux promesses d'IA cognitive unifiée. Les chercheurs continueront à publier des articles explorant ces pistes. Les médias continueront à couvrir ces développements avec enthousiasme. Mais la barre de fer de Phineas Gage reste plantée dans le sol de la neuropsychologie, rappel permanent que la cognition humaine résiste aux modèles simplistes et aux théories réductrices aussi sophistiquées soient-elles.

La prochaine fois que vous lirez un article annonçant une "percée vers l'AGI" ou une "théorie unifiée de la cognition", souvenez-vous de Phineas Gage et des frères Wright. Demandez-vous : cette nouvelle théorie peut-elle expliquer pourquoi un homme peut perdre sa personnalité tout en gardant sa mémoire ? Ce nouveau système d'IA exploite-t-il vraiment les forces uniques du silicium ou essaie-t-il vainement d'imiter le carbone ?

Si les réponses sont négatives, il est possible que nous assistions à une nouvelle itération dans le cycle récurrent des promesses technologiques ambitieuses. Mais reconnaissons que chaque tentative, même imparfaite, contribue à l'avancement de nos connaissances. Centaur et ses semblables nous apprennent autant par leurs échecs que par leurs succès, nous rapprochant progressivement d'une compréhension plus profonde et plus nuancée de ce mystère qu'est la cognition humaine.

Bibliographie

Sources principales citées dans l'article :

  • Babinski, J. (1914). Contribution à l'étude des troubles mentaux dans l'hémiplégie organique cérébrale (anosognosie). Revue Neurologique, 27, 845-848.
  • Binz, M. et al. (2025). A foundation model to predict and capture human cognition. Nature, July 2, 2025. DOI: 10.1038/s41586-025-09215-4.
  • Broca, P. (1861). Remarques sur le siège de la faculté du langage articulé. Bulletins de la Société Anatomique de Paris.
  • Chomsky, N. (1959). Review of B.F. Skinner's Verbal Behavior. Language, 35(1), 26-58.
  • Damasio, H. et al. (1994). The return of Phineas Gage: Clues about the brain from the skull of a famous patient. Science, 264(5162), 1102-1105.
  • Dennett, D.C. (1991). Consciousness Explained. Little, Brown and Company.
  • Eliot, L. (2025, August 15). Psychology Aims For A Unified Theory Of Cognition And AI Will Be A Big Help To Get There. Forbes.
  • Fodor, J.A. (1983). The Modularity of Mind. MIT Press.
  • Gazzaniga, M.S. (2000). Cerebral specialization and interhemispheric communication: Does the corpus callosum enable the human condition? Brain, 123(7), 1293-1326.
  • Harlow, J.M. (1848). Passage of an Iron Rod Through the Head. Boston Medical and Surgical Journal, 39, 389-393.
  • Harlow, J.M. (1868). Recovery from the passage of an iron bar through the head. Publications of the Massachusetts Medical Society.
  • Korsakoff, S. (1889). Étude médico-psychologique sur une forme des maladies de la mémoire. Revue Philosophique.
  • Orfei, M.D. et al. (2007). Anosognosia for hemiplegia after stroke is a multifaceted phenomenon: A systematic review of the literature. Brain, 130(12), 3075-3090.
  • Putnam, H. (1967). Psychological predicates. In Art, Mind, and Religion. University of Pittsburgh Press.
  • Sacks, O. (1985). The Man Who Mistook His Wife for a Hat. Summit Books.
  • Sperry, R.W. (1968). Hemisphere deconnection and unity in conscious awareness. American Psychologist, 23(10), 723-733.
  • Sperry, R.W. (1981). Nobel Lecture: Some effects of disconnecting the cerebral hemispheres. Nobel Lectures, Physiology or Medicine 1981-1990.
  • Wernicke, C. (1874). Der aphasische Symptomencomplex. Breslau: Cohn & Weigert.

Sources additionnelles sur les syndromes neuropsychologiques :

  • Farah, M.J. (2004). Visual Agnosia. MIT Press.
  • Squire, L.R. (1987). Memory and Brain. Oxford University Press.

Sources sur la modularité cognitive et la philosophie de l'esprit :

  • Carruthers, P. (2006). The Architecture of the Mind. Oxford University Press.
  • Churchland, P.M. (1988). Matter and Consciousness. MIT Press.
  • Prinz, J.J. (2006). Is the mind really modular? In Contemporary Debates in Cognitive Science. Blackwell.

Sources sur l'IA et les LLMs :

  • Marcus, G. (2018). Deep Learning: A Critical Appraisal. arXiv preprint.
  • Vaswani, A. et al. (2017). Attention is all you need. Advances in Neural Information Processing Systems.
  • Bengio, Y. (2009). Learning Deep Architectures for AI. Foundations and Trends in Machine Learning.

Sources sur l'histoire de l'aviation et l'innovation technologique :

  • Anderson, J.D. (1997). A History of Aerodynamics. Cambridge University Press.
  • Crouch, T. (2003). The Bishop's Boys: A Life of Wilbur and Orville Wright. W.W. Norton & Company.
  • Vincenti, W.G. (1990). What Engineers Know and How They Know It. Johns Hopkins University Press.

Sources sur les différences substrat biologique/silicium :

  • Kandel, E.R., Schwartz, J.H., & Jessell, T.M. (2000). Principles of Neural Science. McGraw-Hill.
  • Koch, C. (1999). Biophysics of Computation. Oxford University Press.
  • Mead, C. (1989). Analog VLSI and Neural Systems. Addison-Wesley.

Sources sur les biais et pressions dans le système académique :

  • Edwards, M.A., & Roy, S. (2017). Academic research in the 21st century: Maintaining scientific integrity in a climate of perverse incentives and hypercompetition. Environmental Engineering Science, 34(1), 51-61.
  • Fanelli, D. (2010). Do pressures to publish increase scientists' bias? PLoS One, 5(4), e10271.
  • Moher, D. et al. (2018). The Hong Kong Principles for assessing researchers: Fostering research integrity. PLoS Biology, 18(7), e3000737.

Sources additionnelles sur les théories intégratives de la conscience :

  • Anderson, J. R., et al. (2004). An integrated theory of the mind. Psychological Review, 111(4), 1036-1060.
  • Clark, A. (2013). Whatever next? Predictive brains, situated agents, and the future of cognitive science. Behavioral and Brain Sciences, 36(3), 181-204.
  • Dehaene, S., & Changeux, J. P. (2011). Experimental and theoretical approaches to conscious processing. Neuron, 70(2), 200-227.
  • Friston, K. (2010). The free-energy principle: a unified brain theory? Nature Reviews Neuroscience, 11(2), 127-138.
  • Hohwy, J. (2013). The Predictive Mind. Oxford University Press.
  • Melloni, L., et al. (2025). Adversarial testing of global neuronal workspace and integrated information theories of consciousness. Nature, 642(8066), 133-142.
  • Seth, A. K., & Hohwy, J. (2020). Predictive processing as an explanatory framework for consciousness science. In Neuroscience of Consciousness.
  • Tononi, G. (2008). Consciousness as integrated information. Biological Bulletin, 215(3), 216-242.
  • Tononi, G., Boly, M., Massimini, M., & Koch, C. (2016). Integrated information theory: from consciousness to its physical substrate. Nature Reviews Neuroscience, 17(7), 450-461.
1 / 11
Article suivant