Notes de lecture sur les sciences cognitives

 

La ruse de l'inconscient

Certains envisagent la pensée ou l'intelligence comme création de l'imprévu et, pour s'en persuader, ils construisent des machines qui seraient susceptibles de nous étonner en produisant des choses pour lesquelles elles n'auraient pas été programmées. Comme si l'on s'attendait à ce que de l'organisation, voire de la pensée, en tout cas du nouveau, surgissent spontanément. Bref, on s'attend à de l'imprévisible. Comme les fameuses cellules de Bénard, tartes à la crème de Prigogine, qui seraient censées illustrer l'organisation spontanée (et imprévue) de la matière. Ainsi, on construit spontanément, une casserole, on la remplit spontanément d'eau, on la fait bouillir, toujours spontanément, avec de l'électricité qui spontanément était placée là, et là, spontanément, un type l'observe et constate que l'eau fait spontanément des tourbillons réguliers et il en déduit que, spontanément, de l'organisation, c'est-à-dire de l'ordre, naît du désordre ambiant. Ce paradoxe serait assez comique s'il n'était pas insensé. D'autres considèrent que la pensée c'est l'accession au sens, or ils pensent qu'une machine n'y accédera jamais par simple computation de signes ou de bits. On cite souvent à cet égard, la fameuse chambre chinoise de Searle. Vous savez le type qui est capable, enfermé dans une chambre, de manipuler tous les idéogrammes, car on lui fournit un code d'association, de telle sorte qu'il peut construire toutes les phrases correctes (les fameuses ebf ou "expressions bien formées"), comme une machine pourrait le faire, mais sans en saisir le sens. Ce faisant, cette métaphysique du sens, qui renoue avec le dualisme cartésien, ne dit pas comment nous autres, êtres humains, accédons au sens. Mais, surtout, qu'entend-on par sens?

Ces questions n'ont de sens, justement, que si nous faisons les hypothèses qui les engendrent; à savoir, qu'il y a de l'esprit; qu'il y a de la matière; qu'il y a des êtres humains qui pensent, et qui pensent qu'il y a des choses à penser; qu'il y a des animaux qui pensent peut-être, mais lesquels, et à partir de quelle espèce dans l'ordre de l'évolution; que l'esprit est non matériel et que la matière est non spirituelle; que la conscience surgit d'une certaine complexité de l'organisation, et la pensée aussi, mais on ne sait pas très bien distinguer la pensée de la conscience; et ainsi de suite depuis 25 siècles ou presque.

Je propose de penser que ce que nous appelons le sens, c'est un certain rapport humain, ou plutôt un ensemble non clos de rapports humains ou de relations humaines. Quand je dis: le sens de cette phrase est ceci: je formule le désir d'une fixation, d'un arrêt. Mais cela n'arrive jamais. Heureusement. Sauf dans les dogmes et les entreprises sociales de dogmatisation générale que l'on nomme tyrannie, dictature, totalitarisme, etc. Le sens se trouve dans l'herméneutique, c'est-à-dire la multiplication des sens, des interprétations, et ainsi de suite; dans leur mouvement, dans leur irréversible et imprévisible succession. Cette suite de sens sont comme les jalons de la socialisation et des lieux de passage sur lesquels on ne doit jamais se fixer et qui marquent la différenciation des rapports humains et la créativité des individus.

Ces rapports s'inscrivent dans un processus irréversible et relativement imprévisible que j'appelle processus de socialisation et qui se confond avec la succession des générations. Je dis relativement imprévisible, car chaque individu contribue, par sa créativité, à changer les rapports qu'il va trouver à sa naissance. Il n'est donc pas nécessaire de continuer à se poser des questions telles que: qu'est-ce que le psychisme? ou encore: qu'est-ce que la matière? ou encore: qu'est-ce que penser? ou encore: qu'est-ce que l'intelligence?

Je propose la question suivante: qu'est-ce qu'un automate? et que voulons-nous signifier lorsque nous utilisons le préfixe auto, comme dans auto-organisation ou autonomie, par exemple? Voulons-nous dire qu'une certaine chose est capable de changement? Non, car tout change. Nous voulons peut-être dire capable d'un certain type de changement. Mais lequel? Un changement interne, dû à une activité propre? Mais que signifie interne? Qu'est-ce qui est interne, qu'est-ce qui est externe, et par rapport à quoi? Car si nous considérons l'organisme, les organes sont internes, mais pour chaque organe, les autres organes lui sont extérieur, et si nous considérons les cellules, elles sont internes à l'organe, mais pour les organelles de chaque cellule, les autres cellules leur sont externe, et ainsi de suite. Cette manière de penser même tout droit à l'impasse qui est du même type que celle engendrée par la question du rapport entre espèce et environnement dans la théorie darwinienne. L'environnement est-il extérieure à l'espèce ou en est-il issu? S'il en est issu, alors il est dépendant de lui et dire qu'il constitue son extérieur n'a plus aucun sens.

Voulons-nous dire alors que nous considérons une entité close ou relativement close douée d'une certaine capacité de changement sans intervention de ce qui lui serait, disons relativement, extérieur? Mais où/quand pouvons-nous trouver une telle chose si isolée du monde qu'elle n'en recevrait ni lumière, ni bruit: éternelle et née de rien? Voudrions-nous dire alors un phénomène qui n'obéirait pas au second principe de la thermodynamique, c'est-à-dire qu'au lieu d'accroître son entropie, il la diminuerait, comme un être vivant, qui crée, se développe, génère? Non, certains dirons, puisque cet auto-quelque-chose mécanique doit être alimenté et ne peut s'alimenter lui-même (mais le bébé non plus, ne peut s’alimenter lui-même). Pourrions-nous en effet construire une machine capable de s'alimenter elle-même? (mis à part un bébé). Je veux dire d'aller chercher son électricité, de se brancher lorsqu'elle à faim, de se débrancher lorsqu'elle veut se reposer, de tomber amoureux, de se reproduire, de faire des petites machines qui grandiraient, qui iraient à l'école, joueraient, feraient des bêtises, désobéiraient à leurs parents, deviendraient des internautes passionnés et ainsi de suite, et qui pourraient, par exemple, se demander comment elles pourraient construire des êtres humains. Non plus? Voulons-nous dire plutôt doué de volonté, de conscience de soi? Mais la volonté est-elle volontaire? Et la conscience de soi est-elle une activité de/du soi ou lui est-elle extérieure? Y aurait-il quelque chose d'extérieur au soi qui ne serait pas le soi, et qui serait capable de lui dire qu'il est conscient de lui. Cette conscience disant au soi, tu es conscient, comme l'ange gardien ou la conscience morale des contes d'enfants, le grillon de Pinocchio. Il y aurait donc le soi d'un côté et la conscience de l'autre, la conscience de soi. Mais la conscience du soi est-elle consciente, elle, d'elle-même? ou existerait-il une conscience de la conscience? et ainsi de suite. Mais si la conscience du soi est encore une activité du soi, alors elle n'est pas conscience de soi, puisqu'elle ne peut être conscience du soi?

On voit que la question n'est pas mince. A moins qu'elle soit tout simplement stupide? Mais comment des gens réputés pourtant sérieux et ayant toute leur tête et même davantage auraient-ils pu se poser des questions stupides? Comment pouvons-nous oser nous moquer de telles personnes reconnues si savantes? J'ai pourtant bien peur que la notion d'automate et même d'auto-quoi-que-ce-soit soient bien insensées? Ne serions-nous pas encore, comme des enfants, restés fascinés par nos jouets mécaniques qui "marchaient tout seuls"? Pourtant, tous ces jouets numériques que nous avons construits fonctionnent bel et bien.

Mais peut-être la question se réduit-elle à celle-ci: quelles sont les différences entre un être humain et une machine cybernétique numérique? Mais sommes-nous nous-mêmes auto-quelque-chose? Et comment pourrions-nous définir l'auto (nomie, organisation, reproduction, etc.)?

Récemment, environ depuis un siècle, nous avons développé le concept d'inconscient; qui n'a bien entendu de sens que par rapport à celui de conscient. Et nous imaginons que ce concept d'inconscient décrit quelque chose; qu'il y aurait vraiment quelque chose qui s'appellerait l'inconscient. Dans ma perspective, le concept d'inconscient, comme d'ailleurs tous les concepts, nos mots, y compris ceux que vous êtes en train de lire, constitue un mode de relation humain; un certain type de rapport humain. Par exemple, pour le concept d'inconscient et toute la théorie qui va avec, celui créé par le psychanalyste. Car celui qui énonce que nos pulsions proviennent de notre inconscient, ne peut appliquer cet énoncé à sa propre énonciation. Celui-là ne peut pas dire en effet que c'est sous l'emprise de son inconscient qu'il a inventé le concept d'inconscient, sans tomber quelque peu dans la démence. Cet énoncé serait exactement équivalent à un croyant plus ou moins fanatique qui dirait agir sur ordre divin. Ces énoncés ont ceci en commun: ils sont tous les deux autoréférentiels. Ils sont loin d'être rares. Ils sont même la règle même s'ils ne revêtent pas toujours leur côté pathologique, c'est-à-dire humainement nuisible.

Nous avons donc inventé la notion d'inconscient, et celle-ci s'avère bien utile, mais nous en faisons un mauvais usage. Le concept d'inconscient, comme d'ailleurs nos autres concepts, ne décrit pas un état de fait, un hypothétique psychisme, ou une couche profonde et inaccessible de notre cerveau. Le concept d'inconscient est une astuce, un biais, pour nous émanciper du concept ridicule de conscience. Mais on ne l'a pas dit. Pourquoi? Parce qu'il aurait fallu pour cela dire combien était ridicule les 25 siècles de philosophie que vous venons de traverser. Il fallait donc le dire d'une autre manière.

 

L'humour n'est pas interdit

How about writing a book untitled The Bit Generation and the anal logic? Funny!

 

Le bit mis à nu

Le culte mythique du bit qui n'est rien, qui ne pèse rien, n'a ni odeur, ni taille, et qui se déplace à la vitesse de la lumière, comme illustration du paradoxe mécanique de la communication et de la quête du Graal/message poussé à son paroxysme. Tout donnerait donc à penser que nous sommes entrés dans l'ère de la communication parfaite où il n'y a plus de bruit, où la technique s'efface définitivement devant la pureté du message désormais libéré de toute contrainte et purifié de toute perturbation aléatoire. Le message enfin mis à nu par ses célibataires mêmes.

On a d'abord inventé l'esprit, puis la matière; on a inventé du même coup l'idée que la matière était engendrée par l'esprit. Puis, certains, dans un élan de contestation, ont cru bon d'inverser le processus et ont dit, qu'au contraire, la matière s'est peu à peu spiritualisée. Ainsi, il n'est pas étonnant que certains espèrent fabriquer de l'esprit de plus en plus sophistiqué à l'aide de nos machines numériques. Celles-ci ne seraient que l'expression et le lieu même de cette spiritualisation progressive de la matière. Ce faisant, les uns et les autres, qui curieusement subsistent parfois dans les mêmes individus (tel ce chercheur en sciences cognitives, par exemple, pense les fins de semaine que l'esprit s'est matérialisé et, le reste de la semaine, cherche le moyen de spiritualiser de la matière,) continus de parler de l'esprit et de la matière de la même façon que pouvaient en parler Platon ou Descartes. Et un beau jour, comme disait Karl Kraus, on risque de se retrouver étouffer par tous ces grands esprits que nous aurions créés pour nous soulager. Je dis soulager, comme on dit de quelqu'un, lorsqu'il revient de quelque part, qu'il s'est soulagé.

Voici un paragraphe lu dans le livre de Ganascia L'intelligence artificielle, pp. 74-75, et qui résume assez bien le raisonnement typique auquel je m'oppose:

"[...] En d'autres termes, l'intelligence artificielle se détourne volontairement de la modélisation des objets pour approcher le comportement de l'homme.

On pourrait objecter que l'homme est le plus insondable des êtres, que toutes les ressources de la médecine et de la psychanalyse, de la philosophie et de l'anthropologie ne nous ont pas permis d'en venir à bout (ce qui serait le rêve, quoi). De fait, il ne s'agit pas d'explorer l'homme en sa profondeur, mais d'élucider son comportement cognitif et d'établir un parallèle entre ce comportement et des manipulations syntaxiques opérées par une machine sur des chaînes de caractères. L'adéquation entre la machine et l'homme ne peut plus alors se mesurer en termes de cohérence et de complétude d'un système symbolique. On doit s'assurer qu'il y a identité (vous avez dit identité, hein?) entre les conclusions de la machine et celles de l'homme; on doit aussi s'assurer que l'homme et la machine y parviennent de façon analogue, qu'ils invoquent des justifications semblables, qu'ils expliquent leur raisonnement de la même manière.

L'intelligence artificielle trouve ici, dans la reproduction analogique du comportement cognitif humain, sa véritable dimension. Mais, pour ce faire, elle doit attribuer, au moins implicitement, des connaissances aux machines; elle se trouve donc confrontée à une question essentielle qui hante les philosophes depuis plusieurs millénaires: qu'est-ce que connaître?"

Et que répond-il à la question? Rien, car c'est la fin de cette partie du livre. Il y revient plus loin: p. 81.

Puis: "l'homme demeure au centre (de quoi ?). Il n'a créé les machines que pour affirmer son autorité sur le monde, pour éviter de commettre des erreurs, pour aller plus vite." p.79 Avez-vous déjà lu une phrase plus nulle?

Et encore plus loin:

"Quel que soit le critère retenu, l'homme est présent; c'est lui qui anime les machines, c'est lui qui donne sens à leurs activités, c'est lui qui délègue ses pouvoirs. Ce faisant, il semble renoncer à certaines de ses attributions et à certains de ses privilèges. Reste à savoir ce que signifie cette renonciation, par exemple ce que veut dire "connaître" pour une machine." p.79

Evidemment, G. voit les créations humaines (les machines) comme une renonciation, une délégation de savoir. Et après avoir affirmer cela il se demande ce que ça peut bien signifier. G. voit certainement la massue ou la pierre taillée comme un renoncement à quelque chose. Il considère que faire faire des calculs à une machine, c'est renoncer à les faire soi-même, et il oublie la construction et l'invention de la machine elle-même comme transformation du monde humain. L'homme ne délègue aucun pouvoir à la machine. D'ailleurs, nous ne sommes pas là non plus pour affirmer notre autorité sur le monde, comme nos vieux mythes bibliques nous le disent. D'ailleurs nous ne sommes pas . D'ailleurs, nous ne sommes pas non plus. voir aussi ce qu'il dit p.100 sur la régression que pourrait entraîner la perte de certaine tâches.

"[...] en intelligence artificielle il n'est pas, il n'a jamais été question, quoi qu'on en dise, de créer un sujet artificiel doté d'une conscience. La machine n'a donc pas de personnalité propre qui lui permette de connaître. On devrait en déduire que la connaissance des machines est une connaissance "par description"." p.82 Bon! Mais cela ne nous dit rien sur le concept de conscience (ou de mind) et quand au concept de description, il le définit ainsi à la page précédente comme: "ce qui peut être extrait de la relation privilégié d'un sujet à un objet et qui, de ce fait, peut-être transmis." Que penser de cela? car qu'entend l'auteur par conscience? Et si l'on évacue le concept de conscience? Et si l'on évacue le concept de connaissance? On se demande aussi ce que l'auteur entend par "relation privilégié d'un sujet à un objet"? L'ordinateur est-il le sujet?

Plus loin dans le livre p.104, l'auteur écrit: "Or il ne peut être question, avec l'intelligence artificielle, de recréer un être qui nous serait semblable. Même si rien ne dit qu'à l'avenir une telle éventualité ne soit pas envisageable, dans l'état actuel de la science, ce n'est là qu'une pure virtualité dénuée de tout fondement scientifique." Que penser de cette phrase où la seconde partie de envisage l'inverse de ce que la première affirme? Et pourquoi l'envisage-t-il? parce qu'il part de présupposés qui ne lui permettent d'envisager la reproduction comme possible. L'IG répond catégoriquement non. Non pas par fermeture dogmatique, mais parce que la recréation mécanique ou autre d'un être vivant semblable à nous est une idée proprement absurde qui repose elle-même sur une logique paradoxale. Le problème du dépassement ou de la domination des machines repose sur la conception fixe de "la nature humaine", de la séparation esprit-matière, homme-nature, et machine-être humain. Ainsi, Ganascia écrit p.108: "Les machines actuelles n'engagent pas l'homme individuellement, dans son être et dans son devenir propre, comme le ferait la procréation artificielle ou le génie génétique..." comme s'il ne s'agissait pas, dans les trois cas de machines créées par nous et avec lesquelles nous nous transformons.

On lit aussi des phrases curieuses comme: "le seul salut pour la science, c'est de rester à l'écoute de la société des hommes et, surtout, comme les anciens nous l'ont enseigné, d'être toujours à la mesure de l'homme." p.110 Y aurait-il la science d'un côté et la société des hommes de l'autre?

Le pire est là: "A cette fin (de communication), ils (les spécialistes en IA) ont souhaité accéder directement au contenu et donc disposer d'une formulation claire et transparente qui permette d'aller droit aux choses sans que le langage retenu ne s'interpose et n'en biaise l'expression; ils voulaient que le contenu des textes s'impose indépendamment du langage employé pour le décrire." C'est le syndrome de Shannon: la communication sans bruit ni médiation.

Autre question resté en suspend depuis, nous dit l'auteur le Phèdre où Socrate refuse d'écrire ses pensées de peut d'être trahi en son absence: Comment relier la connaissance aux symboles qui sont utilisés pour décrire, sans pour autant la réduire à son expression dans un jeu de signes graphiques? p.84

Une autre phrase typique de ce type de raisonnement: "En premier lieu, il apparaît que plus on grimpe dans les strates, plus on oublie les particularités physiques et plus on s'éloigne de la matière. En termes techniques, cela signifie que l'on gagne en abstraction, autrement dit que l'on est de plus en plus indépendant de la machine." p.87; Toujours ce vieux dualisme cartésien entre matière et esprit et, en l'occurrence ici, entre matière et abstraction.

La hiérarchie des strates informatiques:

physique (le silicium)

électronique (les composants)

logique (les circuits)

machine ou architecture (les unités centrales)

assemblage (les langages d'assemblages)

symbolique (les langages de programmation)

Alan Newell pense qu'il doit exister, juste au-dessus de la strate symbolique, une autre strate ultime appelée la strate de connaissance (qui s'exprime intégralement dans un langage de programmation) p.88

Voici comment cette dernière strate est conçue fonctionnellement: "c'est une espèce de petit homoncule fictif que Newell appelle l'agent rationnel et dont le comportement est asservi à un principe de rationalité. L'agent rationnel dispose à tout moment d'un ensemble de possibilités d'actions et de mouvements entre lesquelles il doit se prononcer. Le principe de rationalité l'aide donc à se déterminer, néanmoins il est insuffisant: il ne détermine pas entièrement le comportement de l'agent; il reste une part laissée à son libre arbitre." p.89 C'est comme cela que Newell se conçoit.

Dans ce cadre la connaissance est définie ainsi: "Est connaissance tout ce qui peut être attribué à un agent rationnel et qui détermine son comportement." p.89 Quel est ce "tout ce qui peut être attribué" et quelle est sa différence avec le comportement de l'agent?

"Ainsi sont connaissances les actions dont dispose l'agent rationnel, les informations (sic) sur le monde qu'il possède et les buts qu'il s'est fixé." On nage ici en pleine confusion.

"De fait, selon la conception qui se fait jour ici, la connaissance n'est pas extensive, elle n'est pas le résultat d'une accumulation, ce n'est pas un capital. Elle doit être envisagée dans un processus de modélisation et de maîtrise de phénomènes complexes." p.90

Le point de vue intentionnel (qui attribue des intentions et des désirs à l'objet que l'on cherche à appréhender) de Daniel Dennett est intéressant bien que paradoxal: "envisagée de la sorte, la connaissance n'a de sens qu'insérée au sein d'un processus d'interprétation; la connaissance n'est jamais achevée, elle est perpétuellement en devenir, ce qui nous prémunit contre toute forme de totalitarisme." p.93 Bon! Mais alors autant faire l'économie du concept de connaissance, car la connaissance ainsi définie est indéterminée et n'a plus rien à voir avec ce qu'on entend par connaissance. L'expression "une connaissance en devenir" n'a proprement aucun sens; il en irait de même avec expression comme "une communication en devenir", et ainsi de suite.

Les trois bureaux de de Prony p. 96 et la machine de Charles Babbage.

Par contre j'aime bien la dernière page de son livre. "L'ensemble du système éducatif est à revoir, les programmes sont à repenser. [...] Il faut mettre en cause les divisions disciplinaires traditionnelles. La disjonction entre littéraires et scientifiques ne doit plus être exclusive!" p.117

 

Notes intempestives et néanmoins intéressantes.

Au lieu de l'expression habituelle: "le cerveau est une machine organique", je dirais plutôt, et on y notera bien la différence: "l'ordinateur est un organe machinique".

Il faut avoir lu l'article de Searle dans La Recherche n°287, mai 1996, pour se rendre compte dans quelle bouteille à mouche (je rappelle ce mot de Wittgenstein qui disait que pour lui la philosophie consiste à dire à la mouche comment sortir de la bouteille à mouche) lui et les gars qu'ils commentent (Watson, Penrose et Edelman) se sont enfermés. Je devrais les commenter à mon tour.

 

Polémique

Ce qui me semble caractéristique d'un comportement assez infantile, dans la polémique scientifique, c'est que lorsqu'un chercheur veut se moquer de son collègue ou le critiquer (et l'un va souvent avec l'autre), il emploie l'expression qui est considérée comme une insulte "Ce type à inventé telle ou telle théorie..."; tandis que lui se targue de décrire l'exact fondement des choses. Mes principes éthico-paradigmatiques permettent de juger efficacement d'une telle attitude.

 

Commentaires de l'article de John Searle (La Recherche n°287, mai 1996).

Voilà les questions posées qui sont justement les sources du problème:

"Mais que se passe-t-il exactement entre le moment où nos récepteurs sont assaillis par les stimuli et l'expérience de la conscience? Et de quelle manière les processus intermédiaires causent-ils les états conscients?" p.62

"L'ensemble de notre vie consciente, [...], est causé par des processus cérébraux. Ces processus, d'après ce que nous en savons, se produisent au niveau microscopiques des synapses; des neurones, des réseaux neuronaux et des assemblages cellulaires. L'ensemble de notre vie conscient est déterminée par ces processus élémentaires mais nous n'avons encore qu'une idée très vague de leur fonctionnement." p.62

Le problème posé par les 100 milliards de neurones et les dizaine de milliers de liaisons synaptiques.

Le problème de l'examen du fonctionnement du cerveau sans le détruire.

La question: comment les processus neurobiologiques du cerveau causent-ils le phénomène de la conscience? Et ses présupposés philosophiques.

La définition du mot conscience: "conscience se réfère aux états mentaux qui commencent en général lorsque nous nous éveillons d'un sommeil sans rêve et se poursuivent jusqu'à ce que nous nous endormions de nouveau et tombions dans le coma ou mourrions, ou devenions, d'une manière ou d'une autre "inconscient". Les rêves [...] sont une forme de conscience. La conscience ainsi définie est: tantôt en éveil, tantôt en sommeil: un phénomène qualitatif, subjectif et interne. Les être humains et les animaux supérieurs sont conscients mais nous ignorons jusqu'à quel niveau de l'échelle phylogénétique le phénomène est présent. Les poux sont-ils conscients?"

Les difficultés pour accéder à une conception non erronée de la conscience selon Searle.

  1. Le dualisme cartésien-galiléen: "Il nous faut abandonner le dualisme et partir de l'idée que la conscience est un phénomène biologique ordinaire tout comme la croissance, la digestion ou la sécrétion de bile." p.64
  2. Les processus cérébraux ne sont pas la cause des états conscients (dualisme). Conception erronée de la causalité.
  3. Le problème des "qualias" (sensations subjectives spécifiques, telle que la douleur, par exemple) et la conception générale du monde en tant que réalité objective.
  4. La comparaison esprit conscient et programme d'ordinateur. L'IA forte et IA faible (l'ordinateur est un outil pour simulations du fonctionnement de l'esprit). La question de la signification et des symboles et leur contenu sémantique. L'argument de la chambre chinoise.
  1. les programmes effectuent des opérations syntaxiques
  2. l'esprit met en jeu des contenus sémantiques
  3. les opérations syntaxiques sont différentes des contenus sémantiques et insuffisantes en elles-mêmes pour atteindre le niveau sémantique.
  4. les programmes informatiques ne sont donc pas des esprits: CQFD.

Il est possible de montrer que la syntaxe n'appartient pas de manière intrinsèque à la réalité physique (sic)".

"Le cerveau est un organe comme un autre: c'est une machine organique." Je dirai plutôt que l'ordinateur est un organe machinique.

 

La platitude paradoxale de Crick dans L'hypothèse stupéfiante: à la recherche scientifique de l'âme, Paris, Plon, 1995.

"L'hypothèse stupéfiante de Crick: ""vous", vos joies et vos peines, vos souvenirs et vos ambitions, l'idée que vous vous faites de votre identité personnelle et de votre libre arbitre ne sont en fait rien de plus que le comportement d'un vaste assemblage de cellules nerveuses et des molécules qui leur sont associées." p.66

Où l'on en revient à la bonne vieille logique russellienne (le tout n'est pas la somme des parties, et "une propriété émergente d'un système est une propriété s'expliquant par le comportement des éléments de ce système mais qui n'appartient en propre à aucun des éléments particuliers du système et ne peut s'expliquer simplement comme la somme des propriétés des élément du système.") p. 67

"Le nombre de fonctions que réussit à remplir le cerveau avec un mécanisme aussi limité est proprement stupéfiant." p.67

"Penrose pense que les neurones sont trop gros... et Edelman pense qu'ils sont trop petits" p.68

Crick s'appuie sur la perception visuelle pour tenter de résoudre le problème de la conscience.

Il s'agit "d'expliquer comment les émissions de signaux neuronaux causent les états mentaux ou de conscience." p.67

Où l'on apprend:

  1. la manière dont fonctionne un neurone. p.67
  2. que la chose stupéfiante est que la description de ce fonctionnement est la cause de l'ensemble de nos états conscients. p.68
  3. que les souvenirs que nous conservons, par exemple, semblent être en quelque sorte stockés dans les liaisons synaptiques entre les neurones. p. 68

Où l'on voit que la notion de communication est toujours entendue de la manière la plus classique:

Le problème des qualia: "le problème découle du fait que la rougeur du rouge que je perçois distinctement ne peut être communiquée de manière précise à un autre être humain." p.68

D'où: "comment des signaux neuronaux de nature physique, objective et quantifiable peuvent-ils causer des expériences internes, subjectives et qualitatives? Ou, pour utiliser une formulation simpliste, comment le cerveau assure-t-il le passage de l'électrochimie à la sensation? p. 68

"Le problème des qualia [...] est le problème de la conscience." p. 68

"Les sensations complexes, écrit Crick, sont des propriétés émergentes qui "se produisent dans le cerveau à partir de l'interaction de ses nombreux éléments." p. 69

L'argument traditionnel en philosophie contre une réduction qui élimine la conscience est que même si la neurobiologie était parvenue à un stade de perfection scientifique, nous serions toujours en présence de deux types de phénomènes: la trame neurobiologique de l'activité neuronale et la sensation de la douleur, par exemple." p. 69 S. ignore qu'il existe des maladies où la sensation de douleur est totalement absente (analgésie congénitale) accompagnée d'aucun autre trouble neurologique et psychologique.

La question stupide par excellence: "Crick, d'autre part, ne définit pas clairement la relation entre les expériences visuelles et les objets du monde extérieur dont elles sont les expériences." p. 69

Ce que les uns et les autres cherchent: "En définitive, ce qu'il souhaite (Crick), comme moi-même, est de parvenir à une explication causale de la conscience, qu'il s'agisse de la conscience visuelle ou d'autre forme de conscience. Les photons réfléchis par les objets viennent frapper les cellules photoréceptrices de la rétine et ceci déclenche une série de processus neuronaux (la rétine constituant une partie du cerveau) qui donnent lieu ensuite, si tout se passe normalement, à une expérience visuelle qui est la perception de l'objet même ayant au départ réfléchi les photons. Ceci, me semble-t-il, et j'espère qu'il en serait d'accord, est la bonne façon d'aborder la question." p. 69

Le problème de l'intégration (binding problem): "c'est la manière dont les neurones sont activés temporairement en tant qu'unités." p. 70

Crick pense que "les neurones qui correspondent à la forme, à la couleur et au mouvement, par exemple, seraient activés de manière synchrone environ 40 fois par seconde (40hz).

Il pense aussi "qu'une activation synchronisée d'une fréquence de 40Hz des réseaux qui relient le thalamus au cortex pourraient être la clé du problème de la conscience." p. 70

Mais cela, pour Searle, ne répondra jamais à la question: comment ça marche? Car cela ne nous donne pas les mécanismes par lesquels les corrélats neuraux causent les états conscients" p. 70 C'est la question qui tourmente Searle

 

Le point de vue de Penrose dans: Shadows of the Mind (Les ombre de l'esprit, Paris, InterEditions, 1995),

est assez curieux: il soutient dans la première partie que (en s'appuyant sur le théorème d'indécidabilité de Gödel) que nous ne sommes pas des ordinateurs et que le fonctionnement du cerveau ne peut même pas être simulé par ordinateur.

L'argument de Lucas: un ordinateur ne se sert que d'algorithmes, mais aucun algorithme ne peut démontrer certaines propositions que nous percevons comme vraies. Leur connaissance n'est donc pas d'ordre algorithmique. Donc, nous ne sommes pas des ordinateurs.

La démonstration de l'insolubilité du problème de l'arrêt (version d'Alan Turing du théorème de Gödel). p. 71

Pour Searle: "Nous pouvons supposer que nous suivons inconsciemment un programme tellement compliqué que nous ne puissions jamais en avoir une compréhension d'ensemble immédiate." p. 71 "... l'approche cognitive algorithmique n'exige pas que les individus soient capables de comprendre les programmes qu'ils sont censés utiliser pour résoudre des problèmes cognitifs." (Hilary Putnam) p. 71

Il ne voit même pas le paradoxe de sa proposition: je suis programmé pour comprendre le programme qui m'a programmé pour comprendre le programme qui m'a ... et ainsi de suite.

Penrose ne donne pas les bonnes raisons logiques pour soutenir que l'idée selon laquelle nous utiliserions des algorithmes que nous ne connaissons et ne comprenons pas ou que nous ne pouvons ni connaître ni comprendre n'est "pas du tout plausible"". p. 72

Mais Searle pose les questions suivantes à Penrose si l'on admet ses objections:

  1. Quel est, selon Penrose, l'objectif des modèles informatiques de l'esprit? Pour Searle, il ne s'agit pas seulement de concevoir des programmes capables de démontrer des théorèmes ou de formuler de nouvelles hypothèses scientifiques, il dit que les sciences cognitives partent en général de l'idée selon laquelle il existerait un niveau de description du cerveau se situant entre le niveau des processus de pensée conscients et celui des processus neurophysiologiques à l'état brut... Les théories de la vision, par exemple... L'objectif n'est pas de définir l'algorithme que les individus s'efforceraient d'appliquer dans telle ou telle situation mais plutôt de trouver un algorithme permettant de décrire avec exactitude ce qui se passe dans leur esprit." p.72
  2. "Penrose espère que lorsque la mécanique quantique sera achevée, lorsque nous disposerons d'une théorie satisfaisante de la gravitation quantique, celle-ci "nous conduira à quelque chose de véritablement non calculable"." p.73 Car la physique classique ne peu rendre compte du caractère non numérique (et donc non algorithmique) de l'esprit. Le problème de la conscience ne doit pas être rechercher au niveau des neurones qui sont trop gros et relèvent de la physique classique, mais plutôt au niveau du cytosquelette des neurones (et des microtubules qui jouent, selon lui, un rôle déterminant dans le fonctionnement des synapses) qu'il considère comme un système de contrôle de ses différentes opérations. Il dit: "Dans la perspective que je voudrais proposer ici, la conscience serait une manifestation de cet état cytosquelettique interne pris dans des phénomènes d'ordre quantique et de sa participation à l'interaction [...] entre les niveaux quantique et classique de l'activité". Et Searle commente ainsi le point de vue de Penrose: "Autrement dit, le niveau cytosquelettique est entièrement pris dans des phénomènes relevant de la mécanique quantique et lorsque le niveau micro entre en contact avec le niveau macro, la conscience apparaît." p.73 Penrose pense donc, selon Searle, qu'il n'existe aucun niveau de description auquel le fonctionnement de la conscience puisse être simulé, et il en déduit que l'explication de la conscience doit être recherché du côté d'entités ne pouvant faire l'objet d'une simulation. Penrose suppose premièrement que si un phénomène ne peut être simulé sur ordinateur, son comportement ne peut être expliqué par rien qui puisse faire l'objet d'une simulation. Et deuxièmement, que tout ce qui peut faire l'objet d'une simulation sur ordinateur devient intrinsèquement un ordinateur. Deux erreurs, selon Searle. En plus, pour Penrose, nous vivons dans 3 mondes différents: le monde physique, le monde mental et le monde mathématique et il cherche à montrer comment chacun de ces mondes constitue le fondement du suivant en une circularité infinie. Searle critique de la mauvaise façon son point de vue. Son projet (à Penrose) ne tient pas debout, tout simplement par ce qu'il se contredit lui-même. Il énonce trois mondes et, disant cela, il se situe nécessairement en dehors de chacun d'entre eux. Comme il prétend donner une explication, l'explication qu'il donne ne peut pas être comprise dans ce qu'il veut expliquer. Si on la tient pour vraie, alors elle est fausse.
  3. Pour Searle, "la tâche essentielle d'une science de la conscience aujourd'hui est de montrer que la conscience est un phénomène biologique appartenant à ce monde-ci, au même titre que la digestion ou la photosynthèse." p.74

Je rappelle que mon point de vue est le suivant:

  1. la simulation d'un cerveau ne peut comprendre la simulation du cerveau qui effectue la simulation. Autrement dit, celui qui énonce que le fonctionnement du cerveau ou de la conscience est de nature algorithmique doit s'attendre à ce qu'on lui dise: quel est l'algorithme qui vous fait penser cela?
  2. la succession des expériences de simulation (ou de reproduction) du fonctionnement d'un cerveau change la conception que le cerveau qui effectue la simulation se fait de ce fonctionnement.
  3. la simulation d'un cerveau constitue non une simulation du fonctionnement de ce cerveau, mais une transformation de celui-ci. Tout comme la succession des moyens de transport loin de simuler la marche humaine, la contient toujours (même dans un avion ou une fusée nous devons marcher), mais la transforme (donner l'exemple que je prends habituellement) socio/mécaniquement (marcher dans un avion n'est pas marcher à terre.
  4. La recherche, la simulation ou la définition de la conscience ne peut être qu'une attitude autoréférentielle ou paradoxale et n'a donc pas de réponse. C'est donc la question qu'il faut abandonner et envisager un processus de conscienciation, irréversible et imprévisible dont on en peut définir ni l'origine ni la finalité car la conception de l'un et de l'autre change au fur et à mesure de leur énoncé, de leur recherche et de la création des moyens d'investigations développés à ce propos.
  5.  

    Le darwinisme neuronal de Gerald Edelman dans: The Remembered Present, a Biological Theory of Consciousness (Biologie de la conscience, Paris, Odile Jacob, 1992).

    La question, selon Searle, serait de savoir comment l'ensemble des différents stimuli reçus par différentes parties du cerveau sont réunis de manière à produire une perception singulière unifiée (le problème de l'intégration (binding problem).

    La notion de carte et la théorie de la sélection des groupes neuronaux. p.74

    Pour Edelman, la formation des catégories de la perception et de la mémoire ne doit pas être envisagé sous la forme d'un apprentissage soumis aux effets de l'environnement. Le cerveau doit être plutôt conçu comme équipé génétiquement dès la naissance, et en surabondance, de groupes neuronaux et se développant de manière comparable à la sélection naturelle darwinienne (p.75). Dans certaines parties du cerveau, jusqu'à 70% des neurones meurent avant que le cerveau n'atteigne sa pleine maturité. Le point essentiel de cette théorie, selon Searle, est que le cerveau n'y joue pas un rôle d'instruction mais celui d'un mécanisme de sélection, c'est-à-dire que le cerveau ne se développe pas au moyen de modifications d'un ensemble donné de neurones mais au moyen de processus de sélection qui ont pour effet d'éliminer certains groupes neuronaux et d'en renforcer d'autres. La théorie de la réentrée est le processus par lequel les signaux parallèles vont et viennent entre les cartes.

    Voici comment Searle (et pas seulement lui) résonne: "Le cerveau a un problème à résoudre: il doit développer un certain nombre de catégories de perception en commençant par celles qui portent sur les formes, les couleurs et le mouvement avant de passer à celles qui concernent des objets et il doit réussir à en abstraire des idées générales." p.75

    Pour résoudre le problème de l'intégration, Edelman considère que chaque carte est le résultat d'une sélection de groupes neuronaux selon les catégories de perception (contour, mouvement, couleur, etc.) et que les mécanismes de réentrée permettront à d'autres cartes de définir la forme à partir, par exemple, des contour et des mouvements. Cela permet, selon cet auteur, de coordonner la perception et l'action (sic).

    Searle pose la question: comment passe-t-on du système que je viens de décrire aux expériences conscientes? Edelman distingue la "conscience primaire" (imagery) et la "conscience supérieure" (conscience de soi et langage).

    Pour pouvoir disposer d'une conscience primaire, selon Edelman, le cerveau a besoin des éléments suivants:

    1. Une mémoire (considéré non comme un processus passif de stockage, mais un processus actif de recatégorisation s'effectuant sur la base des catégorisations antérieures). Searle considère cette idée comme très intéressante car elle permet de s'émanciper de la théorie classique de l'entrepôt où serait stocké connaissance et expérience et le souvenir comme processus de récupération de données à partir de cet entrepôt.
    2. Un système d'apprentissage
    3. La capacité à distinguer le soi du non-soi.
    4. Un système lui permettant de catégoriser les événements successifs dans le temps et de former des idées générales.
    5. Un type particulier de mémoire permettant de relier les systèmes 4 et les systèmes 1, 2 et 3.
    6. Une série de liaisons de réentrée entre le système de mémoire spéciale et le système anatomique.

    Et Searle de résumer ainsi les conditions d'apparition de la conscience selon Edelman: "Le cerveau doit avoir des systèmes de catégorisation; il doit aussi disposer des types de mémoire décrits plus haut ainsi que d'un système d'apprentissage impliquant nécessairement des processus de valorisation. Le cerveau doit être capable de distinguer le soi et le reste du monde et il doit exister des structures cérébrales capables de sérier les événements dans le temps. Et enfin, ce qui est le plus important, le cerveau a besoin de canaux de réentrée globaux permettant de relier ces différentes structures anatomiques. La conscience supérieure se développe lorsque des animaux, l'homme par exemple, sont capables non seulement se sentir et de percevoir mais aussi de se représenter de manière symbolique la distinction entre soi et non-soi, c'est-à-dire à dire de former une idée abstraite du soi et ceci n'est possible qu'au moyen de l'interaction sociale." p.76

    Selon Searle, tout cela n'explique pas pourquoi un cerveau qui possèderait toutes ces propriétés devrait être doué de conscience ou d'états mentaux. Pour lui, une neuroscience de la conscience devrait pouvoir nous dire: quelles sont les caractéristiques anatomiques et physiologiques du cerveau qui causent la conscience et quelles caractéristiques spécifiques causent quels types d'états conscients." p.77

    "Mais si le cerveau dispose effectivement de structures physiques censées causer la conscience, il faut expliquer comment." p.77

    "En supposant que les mécanismes de réentrée provoquent le développement dans le cerveau de catégories correspondant aux stimuli d'entrée, de quelle manière exactement ces mécanismes de réentrée peuvent-ils causer les états de conscience?" "[...] est-il vraiment établi que les cerveaux qui disposent de ces mécanismes sont conscients alors que ceux qui en sont dépourvus ne le sont pas? Le mystère reste donc entier. Le problème de l'explication des états qualitatifs intérieurs, états mentaux ou de conscience, appelés qualia, n'est pas un aspect du problème de la conscience qu'il serait loisible de laisser de côté: ce problème est le problème même de la conscience car tout état conscient est un état qualitatif et le terme de "qualia" est en fait inadapté pour désigner la conscience propre à tous les états conscients." p. 77

     

    La société de clownage: la copie est (enfin) parfaite.

    L'informatique permet une reproduction parfaite, dit-on. Une copie peut même être meilleure que l'original (Négroponte, 1996, p.58). Aussi le copyright devient obsolète. Avec l'informatique et la bit génération, on accède enfin au rêve de la bactérie de Monod: on va enfin pouvoir se reproduire parfaitement. L'armée des mêmes est en route. Le gars explique en long et en large dans son bouquin tout ce qui change avec la généralisation de l'informatique (la technologie numérique), et, ne comprenant rien à ce qu'il dit lui-même, il dit: "the medium is no longer the message". Le message enfin nu et débarrassé de tous les bruits parasites. Voilà un exemple typique de la nouvelle narcose engendrée par un usage immodéré du numérique. Voir aussi Le Rire de Bergson.

Jacques Jaffelin

 

  remonter              flechec.gif (880 octets)    considérations intempestives   flecheD.gif (875 octets)            flechec.gif (880 octets)    télécharger ce texte   flecheD.gif (875 octets)