Le subjectif est objectif

Section 8

Par David Olivier

8. Réalité et virtualité

Notre culture technophile tend de plus en plus à diffuser comme une évidence l'idée d'un caractère purement logique de la réalité, et de l'équivalence entre le virtuel et le réel. J'ai parlé (section 5) du mythe du robot pensant prédit par Turing. Un exemple plus moderne est celui de la série de films Matrix, où les personnages (si j'ai bien compris) ne parviennent pas eux-mêmes à déterminer s'ils sont réels ou au contraire ne résultent que de l'exécution de quelque sous-programme dans un ordinateur géant. Pourtant ils souffrent, désirent, luttent. Le discours implicite est que puisque toute réalité peut être simulée par un programme - et les réalisations modernes de simulation de paysages, d'avions, de textures et ainsi de suite sont souvent saisissantes - la perception subjective elle-même peut être simulée, et devient de ce fait quasi-réelle, impossible à distinguer d'une subjectivité réelle.

La «souffrance virtuelle» est-elle vraiment équivalente à la souffrance réelle? Fait-elle mal?

Je crois que la réponse est oui et non: oui, en ce sens que la souffrance virtuelle, si elle existait, serait effectivement équivalente à la souffrance réelle, en vertu du rejet de l'épiphénoménisme (section 5). Elle serait équivalente en un sens éthique: nous aurions la même obligation morale de la faire cesser. Mais cela nous mènerait, nous le verrons, à une situation absurde. Par conséquent, la souffrance virtuelle ne peut exister.

Mais que sont donc ces choses «virtuelles»? Nous avons vu (section 5) que dans la perspective laplacienne, la totalité du monde peut à chaque instant être décrite par un ensemble de nombres, et que son évolution, à partir de cette description, est soumise à un déterminisme calculable, c'est-à-dire peut être prévue par l'application d'un algorithme. Cela est vrai du monde dans sa totalité, du moins en théorie; cela est vrai aussi de n'importe quelle partie du monde. Si je connais à un instant t1 l'état complet d'un être humain, par exemple, c'est-à-dire, pour reprendre notre image, l'état de chacune des boules de billard qui le composent, je peux calculer dans quel état il sera (ou était) à n'importe quel autre instant t2, à condition cependant d'ajouter une information supplémentaire: je dois connaître aussi l'ensemble des influences extérieures ayant pu affecter le système dans l'intervalle de temps [t1, t2]. S'agissant d'un être humain, je dois connaître l'ensemble des interactions verbales ou autres qu'il a pu avoir avec d'autres humains, l'ensemble des choses qu'il a vues et ainsi de suite; mais il ne suffit pas que j'en connaisse simplement la teneur générale, il faut que je connaisse ces interactions molécule par molécule, boule de billard par boule de billard.

Moyennant ces conditions, peu vraisemblables s'agissant d'un système aussi complexe qu'un être humain mais possibles à remplir en principe, le calcul qui permettra de connaître l'état du système en t2 à partir de son état en t1 sera une simulation. L'ordinateur contiendra au départ dans sa mémoire une représentation binaire de chacun des nombres décrivant le système; cet ensemble de représentations binaires formera un modèle du système simulé. Le calcul se fera pas à pas, en appliquant les lois d'évolution sur des intervalles de temps très petits; plus ils seront petits, plus la précision du calcul sera grande. À chaque pas, donc, le modèle sera la représentation du système à un certain instant; au bout d'un certain nombre de pas, il représentera le système en t2.

Cette simulation consiste donc en l'existence d'une correspondance entre chacune des parties du système réel et une contrepartie dans le modèle. À chaque boule de billard correspond un ensemble de six représentations numériques, décrivant ses trois paramètres de position et ses trois paramètres de vitesse. N'importe quel groupement de boules de billard correspond aussi à un ensemble de représentations numériques; n'importe quelle relation entre boules de billard correspond à une relation entre représentations numériques. Aux intervalles de temps élémentaires du système réel correspondent les pas de calcul qui font évoluer le modèle. En définitive, toute caractéristique du système réel a son correspondant «virtuel» au sein du modèle qui le simule; et ceci, même lorsqu'il s'agit d'une caractéristique non instantanée, mettant en relation des états du système à des instants différents.

Si le monde est laplacien, la sensibilité est forcément le produit de certaines relations entre les «boules de billard» - molécules, champs, etc. - à l'intérieur de notre cerveau. Si notre cerveau est simulé par un modèle tel que nous l'avons décrit, ce qui est toujours en principe possible (si le monde est laplacien), cette sensibilité a elle aussi son correspondant virtuel au sein de ce modèle. Si l'être humain souffre, le modèle «éprouve» au «même moment» (au stade correspondant dans le déroulement de l'algorithme) une «souffrance virtuelle».

Telle est donc la notion de souffrance virtuelle. Nous nous sommes demandé si une telle souffrance est équivalente à une souffrance réelle; nous pouvons reformuler cette question, en accord avec la caractérisation de la souffrance introduite en section 7: une telle souffrance virtuelle constitue-t-elle une motivation primaire dans nos délibérations? Avons-nous une obligation morale de la faire cesser?

Les positions A, B, C et D de Penrose

Penrose distingue sur la question du statut physique de la sensibilité les quatre positions suivantes:

A: Toute pensée est algorithmique; en particulier, les sensations de perception consciente apparaissent par le simple fait d'exécuter l'algorithme approprié.

B: La conscience est une propriété des actions physiques du cerveau; mais bien que toute action physique puisse être simulée algorithmiquement, une simulation algorithmique ne peut par elle-même faire apparaître une conscience.

C: Certaines actions physiques particulières dans le cerveau induisent la conscience, mais ces actions ne peuvent pas être simulées par un algorithme.

D: La conscience ne peut être expliquée en des termes physiques ou algorithmiques ou de quelque manière scientifique que ce soit.

D est la position mystique; je crois que nous pouvons l'écarter, puisqu'elle implique l'impossibilité a priori de déterminer par des moyens physiques - les seuls à notre disposition - si un objet donné est ou non conscient, et donc l'impossibilité de trouver une réponse à la question «Que faire?».

Dans le cadre d'une conception laplacienne du monde, nous avons le choix entre les positions A et B. Toutes deux admettent en effet la possibilité de la simulation algorithmique de notre cerveau, possibilité qui découle, on l'a vu, de la conception laplacienne. Elles diffèrent par la réponse qu'elles donnent à notre question sur l'équivalence entre une souffrance virtuelle et une souffrance réelle; A y répond positivement, B négativement. A est la position dite d'«intelligence artificielle forte»; c'est celle qui fut admise implicitement par Turing (voir section 5). B par contraste représente la position d'«intelligence artificielle faible», et rejette la position opérationnaliste sur la subjectivité, aussi bien en tant que définition qu'en tant que critère. Elle suppose qu'un ordinateur peut exister qui réussirait pleinement au test de Turing, mais cet ordinateur ne serait pas réellement sensible.

La position C est en contradiction avec la conception laplacienne. C'est celle de Penrose lui-même, qui envisage par conséquent la possibilité d'un déterminisme non calculable (voir section 5). C'est aussi ma propre position.

J'ai expliqué dans la section 6 les raisons pour lesquelles je crois le déterminisme laplacien incompatible avec la situation délibérative. Penrose donne d'autres arguments à l'encontre du déterminisme calculable, arguments fondés sur le théorème de Gödel et que je vais rapidement résumer. J'y ajouterai une argumentation spécifique à l'encontre de A, argumentation qui rejoint certaines remarques de Penrose et de Searle, et qui a trait au caractère arbitraire de la relation entre le modèle et le système qu'il simule. Enfin, je ferai valoir à l'encontre de la position B le fait qu'elle paraît impliquer l'épiphénoménisme.

La conclusion sera l'impossibilité de la simulation algorithmique d'au moins certains phénomènes physiques. Je soutiendrai enfin qu'il me semble probable que de tels phénomènes physiques ne sont en fait simulables ni algorithmiquement, ni d'aucune autre manière; c'est-à-dire qu'il n'est pas possible, en général, de prendre la copie complète d'un système physique.

L'argumentation de Penrose

Penrose développe dans les deux ouvrages que j'ai cités une argumentation à l'encontre de la possibilité de simuler tout particulièrement les capacités humaines de pensée mathématique. Il le fait sur la base d'une forme modifiée du théorème de Gödel. Je renvoie à ces ouvrages pour un exposé complet de ses thèses, incluant la réponse à un grand nombre d'objections qui lui ont été faites. Je vais me contenter d'en tracer les grandes lignes.

Le célèbre théorème de Gödel (1931) porte sur la possibilité d'une formalisation complète du raisonnement mathématique. La conclusion de son théorème est qu'une telle formalisation n'est pas possible. Penrose s'appuie sur une variante de ce théorème en termes algorithmiques.

Le cerveau humain est capable de démontrer des théorèmes mathématiques. Si le monde est laplacien, tout ce qui s'y déroule peut être simulé par un algorithme. Cet algorithme sera alors un algorithme démonstrateur de théorèmes.

Qu'est-ce que cela signifie? Nous allons supposer que nous pouvons en donner la caractéristique suivante. Un algorithme A «démonstrateur de théorèmes» sera tel que:

- A opère sur une classe infinie de problèmes mathématiques. Il peut s'agir d'une classe repérée par un nombre. Un exemple de telle classe peut être: «Existe-t-il un nombre premier supérieur au nombre entier n?» L'algorithme A prend comme valeur d'entrée le nombre n, et soit nous donne une réponse, soit ne nous répond jamais (poursuit son calcul sans jamais aboutir à un état final).

- Nous savons, du fait de notre compréhension mathématique, que A est sûr, en ce sens que lorsqu'il nous donne une réponse, cette réponse est toujours vraie. Nous n'exigeons pas qu'il nous donne toujours une réponse. Pour reprendre l'exemple précédent, il pourra s'agir de l'algorithme suivant, décrit en langage libre: «tester si n + 1 est premier; si oui, donner la réponse “oui”; sinon, tester le nombre suivant, et ainsi de suite». Du fait de la structure de cet algorithme, nous voyons bien que s'il nous répond, la réponse sera nécessairement juste. De façon générale, ce sera notre compréhension mathématique de la structure de A qui nous permet de voir (de démontrer) que A est sûr.

Penrose suppose que A agit sur une classe très générale de problèmes mathématiques, qui sont eux-mêmes de la forme: «Tel algorithme, appliqué à tel nombre, aboutit-il ou non à un état final?».

Par une forme modifiée du théorème de Gödel (due à Turing), Penrose nous montre54 que nous pouvons construire un algorithme G appliqué à un certain nombre dont nous pouvons démontrer qu'il aboutit à un état final, mais qui est tel que A ne donne pas de réponse le concernant.

La conclusion de Penrose est qu'un tel algorithme A ne peut englober l'ensemble des capacités humaines de résolution de cette classe de problèmes, ou que s'il le fait, nous ne pouvons le savoir, ou ne pouvons savoir qu'il est sûr. Car si nous le savons, et savons que A est sûr, nous pouvons immédiatement construire l'algorithme G pour lequel nous connaissons la réponse, mais pour lequel A ne peut donner la réponse.

Cette conclusion elle-même découle de manière assez immédiate du théorème de Gödel, et n'est contestée par personne55. Ce qui est contesté - par les tenants de l'intelligence artificielle forte, en particulier, est la volonté de Penrose d'en conclure qu'aucun algorithme A ne peut englober l'ensemble de notre compréhension mathématique. L'objection au raisonnement de Penrose est que notre compréhension mathématique peut très bien être englobée dans un tel algorithme, sans que cet algorithme puisse être connu (par nous) comme étant sûr; et qu'il n'est, d'ailleurs, pas sûr. Nous savons en effet que les humains peuvent se tromper, y compris dans leurs raisonnements mathématiques.

Il n'est cependant pas sans conséquences d'admettre que la compréhension mathématique humaine puisse se tromper, non du simple fait de notre distraction, mais dans son principe. Cela implique qu'il doit exister quelque théorème comportant une erreur de raisonnement, mais qui est par ailleurs tel que nous sommes incapables, y compris en principe (par l'application de l'algorithme qui fonde notre raisonnement mathématique), de percevoir cette erreur; nous déclarerons vrai, avec certitude, le résultat édicté par ce théorème alors qu'il est faux. Penrose note56:

Mais est-il vraiment plausible d'affirmer que nos convictions mathématiques inattaquables puissent se baser sur un système de déduction non sûr - si peu sûr, en fait, que «1 = 2» fait partie, en principe, de ces convictions? Certainement, si nous ne pouvons nous fier à notre raisonnement mathématique, alors nous ne pouvons nous fier à aucun de nos raisonnements concernant la structure du monde. Car le raisonnement mathématique forme une part essentielle de toute notre compréhension scientifique.

L'argumentation de Penrose57 se conclut ainsi par une question rhétorique à laquelle il nous suggère de répondre «non», sans pourtant proposer de justification rigoureuse. Je crois cette argumentation correcte en substance, et susceptible d'être fondée de manière plus solide sur la base de la nécessité de prendre au sérieux le point de vue interne, nécessité qui m'a servi de fil conducteur tout au long du présent article, et qui, je crois, se trouve en filigrane dans bien des raisonnements de Penrose lui-même. Je ne développerai pas plus ce point ici, faute de place et de temps.

Je pense utile cependant de noter que ce qui semble en jeu dans l'ensemble de ce raisonnement, c'est le caractère substantiel de la compréhension mathématique. L'algorithme «démonstrateur de théorèmes» ne démontre, ni même n'affirme, rien en lui-même; il ne démontre des théorèmes que parce que notre jugement mathématique indépendant le perçoit, par l'examen de sa structure, comme sûr. Dès lors que nous faisons des mathématiques, nous ne pouvons pas ne pas croire que notre perception mathématique est celle d'une vérité indépendante de nos assertions; si nous supposons qu'elle n'est en réalité que l'exécution d'un algorithme, donc d'un processus incapable, par lui-même, d'affirmer quelque chose au sujet de la vérité, l'ensemble de notre compréhension mathématique perd tout sens. Je ne crois pas qu'il soit réellement possible, donc, que nous croyions que nos perceptions mathématiques résultent de l'exécution d'un algorithme.

Ce que je trouve remarquable dans l'approche de Penrose est qu'elle s'appuie sur la compréhension mathématique, faculté souvent perçue comme reflétant par excellence la rationalité spécifiquement humaine, pour soutenir le caractère substantiel de toute compréhension. Le mathématicien et le ver de terre se retrouvent mis, fondamentalement, sur le même plan; l'un et l'autre perçoivent, comprennent, et participent, essentiellement, de la même situation dans le monde.

Penrose nous parle peu d'éthique. La question animale est cependant présente dans ses écrits; il prend soin de noter, dans chacun des deux ouvrages que j'ai cités, qu'il ne croit nullement que la sensibilité soit limitée à l'espèce humaine58, et semble prêt à en tirer quelques conséquences éthiques.

Algorithmie et contrefactualité

Je vais revenir sur cette question de relation entre algorithme et sensibilité sous un autre angle, celui du caractère abstrait de l'algorithme. Penrose consacre plusieurs pages à cette question59 en rapport avec l'argumentation de John Searle sur la «chambre chinoise60». Je vais développer ici cette thématique à ma propre façon.

La position A implique que l'exécution d'un algorithme est capable, de son seul fait, d'induire des sensations subjectives. Il s'agit ici de sensations réelles, et non d'une simple apparence de sensations, d'un comportement extérieur (piloté par les résultats du calcul) qui serait «comme si» la machine exécutant l'algorithme était sensible, sans qu'elle ne le soit vraiment (position B).

Pourtant, un algorithme n'est lui-même qu'un objet mathématique abstrait; à ce titre, il n'a aucune localisation ni dans le temps ni dans l'espace. Comment peut-il dès lors engendrer une sensation, objet physique réel?

En fait, A ne postule pas que l'algorithme lui-même engendre des sensations; c'est l'exécution de l'algorithme qui est censée avoir cet effet61. Nous devons alors nous demander: qu'est-ce qui compte comme exécution d'un algorithme?

Le cas classique d'exécution d'un algorithme est celui que peut effectuer un ordinateur. L'algorithme est représenté dans la mémoire de l'ordinateur comme un programme, sous la forme de tensions et de charges électriques dans cette mémoire; il en est de même des données sur lesquelles cet algorithme opère. Ces données forment une représentation concrète de notre modèle de la réalité.

Par le jeu des lois physiques gouvernant les circuits électriques qui constituent l'ordinateur, ces données seront transformées pas à pas de la manière spécifiée par l'algorithme. C'est ce processus physique qui constitue l'exécution de l'algorithme.

Il est parfaitement possible, cependant, de voir ce même processus physique d'une autre manière: comme un simple jeu sans signification de lois de l'électronique, comme des heurts de boules de billard, qui, partant d'une certaine configuration initiale, aboutissent au bout d'un certain temps à une autre configuration. Voir en ce processus l'exécution d'un algorithme implique d'ajouter un sens à ce déroulement physique.

Ce sens est d'abord celui qui fait d'une certaine configuration de tensions électriques la représentation du modèle, c'est-à-dire de nombres. Mais cette relation, c'est nous qui l'établissons! La représentation courante d'un nombre dans un ordinateur se fait par une série de circuits électroniques capables de prendre deux états stables. Nous appelons un de ces états «0» et l'autre «1». Nous convenons qu'une certaine collection de, mettons, 64 de ces mémoires binaires dispersées parfois aux quatre coins de l'ordinateur représente, dans un ordre fixé lui aussi par convention, l'écriture binaire d'un certain nombre parmi tous ceux qui forment le modèle.

En somme, le contenu de l'ordinateur, sans des conventions arbitraires que nous établissons, ne représente rien du tout. Cela contredit le caractère réel, et non conventionnel, de la souffrance et du plaisir qu'est censée induire l'exécution de l'algorithme.

On dira peut-être que c'est le programme lui-même qui «force» une certaine interprétation des états de mémoire de l'ordinateur en termes de nombres. Par exemple, lors de l'opération d'addition de deux nombres, la retenue binaire est propagée dans un certain ordre entre les différentes mémoires binaires; c'est cet ordre qui fixe celui de l'interprétation de ces mémoires binaires en tant que nombre.

Je ne crois pas que cette objection suffise. Le programme peut peut-être fixer une interprétation comme étant la plus «raisonnable». D'autres interprétations restent toujours possibles. Nous pouvons interpréter la collection de 64 mémoires binaires dans n'importe quel ordre, quitte à ce que l'opération effectuée sur ces nombres soit d'un caractère absurde. Le processus d'exécution ne sera sans doute alors la représentation d'aucun processus physique; il correspondra cependant encore à l'exécution d'un algorithme, qui ne sera pas l'algorithme initial que nous voulions voir exécuter, mais un autre, inutile. Le problème du caractère arbitraire de la relation entre la représentation et le nombre représenté n'est pas résolu.

La même chose peut être dite du statut du programme codé lui aussi par des mémoires binaires, et censé représenter l'algorithme. Mais il y a un autre problème concernant cette représentation de l'algorithme. L'exécution concrète, qui est censée induire des sensations, se fait nécessairement sur un jeu de données de départ. Or un algorithme, en tant qu'objet mathématique abstrait, est capable d'opérer sur une pluralité de jeux de données de départ; en principe, même, sur une infinité. Par exemple, l'algorithme d'addition de deux nombres dans leur représentation décimale est capable d'additionner n'importe quel jeu de deux nombres parmi l'ensemble infini des couples de nombres entiers. C'est ce caractère infini des valeurs possibles pour les données de départ qui constitue l'algorithme en tant que représentation d'une certaine logique. Un algorithme capable seulement d'additionner deux et deux peut s'énoncer simplement par l'instruction «imprimer quatre»; rien ne le distingue d'un algorithme de multiplication limité lui aussi aux mêmes données. Il n'incorpore aucune logique d'addition. Tout algorithme capable d'opérer seulement sur un ensemble fini de données est équivalent à l'énumération finie des résultats de cette opération, énumération qui n'incorpore aucune logique générale.

Or, comme je l'ai dit, l'exécution concrète d'un algorithme par un ordinateur part d'un seul jeu de données de départ. On dira peut-être: oui, mais cette exécution se fait suivant des lois de la physique qui la rendent possible sur n'importe quel jeu de données de départ; ce sont ces lois qui instituent le programme en mémoire comme représentation de l'algorithme.

Nous retrouvons là le problème de la contrefactualité: le processus concret est l'exécution de l'algorithme en vertu, non de lui-même, mais de ce qui se passerait aussi dans d'autres mondes que le monde réel!

Pour rendre ce problème plus concret, supposons un ordinateur en train d'exécuter un certain algorithme sur un certain jeu de données de départ D. Supposons que cet algorithme et ces données sont tels que cette exécution engendre, en vertu de A, certaines sensations. Supposons un deuxième ordinateur identique, exécutant le même algorithme sur le même jeu D, à ceci près que nous avons ajouté un petit dispositif extérieur mesurant les données entrant dans le microprocesseur, et une plaque chauffante par-dessous. Ce dispositif extérieur est organisé de manière telle que s'il voyait entrer dans le microprocesseur d'autres valeurs que celles de D, il allumerait la plaque chauffante, laquelle fondrait le microprocesseur. Il se déclencherait ainsi dans un autre monde que le monde réel; dans le monde réel, il n'interfère en rien avec l'exécution de l'algorithme.

Pourtant, parce que le système complet ordinateur + dispositif extérieur ne pourrait exécuter l'algorithme sur d'autres données que D, il n'exécute plus réellement cet algorithme. Par conséquent, en vertu d'un dispositif extérieur qui n'interfère en aucune manière avec ce qui se passe concrètement dans l'ordinateur (puisqu'il ne se déclenche pas), ce deuxième ordinateur n'engendre plus les sensations qu'engendrait le premier.

Il semble donc que le fait qu'un certain dispositif engendre certaines sensations dépende, non de ce qui se passe dans le monde réel, mais de ce qui se passerait dans d'autres mondes que le monde réel...

Ce n'est là qu'une des conséquences étonnantes, et en fait incroyables, qui découlent du caractère abstrait d'un algorithme et du caractère arbitraire de la correspondance entre la représentation des données dans une machine et ces données elles-mêmes. Sans entrer dans les détails, il me semble probable que l'assertion suivante soit vraie: dans un monde laplacien, tout processus physique quel qu'il soit, se déroulant à n'importe quel moment, peut, moyennant des règles de correspondance adéquates, représenter l'exécution de n'importe quel algorithme sur n'importe quel jeu de données. Il en découlerait que, suivant les règles de correspondance que nous choisissons d'envisager, la souffrance et le plaisir, ainsi que n'importe quelle sensation, seraient n'importe où, n'importe quand.

Il me semble clair, donc, que si A était vrai, la finalité de réduire la souffrance et d'augmenter le plaisir ne pourrait avoir aucun sens. Cela viderait de sens la situation délibérative, à laquelle nous ne pouvons pourtant pas ne pas accorder un sens. Par conséquent, nous ne pouvons croire que A soit vrai.

La position B et l'épiphénoménisme

La position B se place elle aussi dans le cadre laplacien, et suppose donc possible la simulation algorithmique de n'importe quel phénomène, et donc, en particulier, celle du cerveau entier d'un être sensible. Elle postule cependant, contrairement à A, qu'une telle simulation n'engendrerait pas les sensations dont est le siège le système simulé. La sensibilité est liée non à l'exécution d'un algorithme, mais à cette exécution au sein d'un certain type de matière.

Telle est la position de Searle, lequel n'explique pourtant pas de quelle nature pourrait être ce lien. Cette thèse a l'avantage de ne pas faire découler la sensibilité de cet objet abstrait qu'est l'algorithme, mais de l'objet concret au sein duquel l'algorithme est exécuté. La simulation informatique d'un ouragan, dit Penrose (à la suite de Searle), n'est certainement pas elle-même un ouragan62.

Il me semble que cette position implique assez directement l'épiphénoménisme (que j'ai défini dans la section 5), et doit donc être rejetée. En effet, la sensibilité est présente dans le système simulé, mais absente dans le système simulant. Le résultat de l'évolution du système simulant ne peut donc être causé par une sensibilité. Supposons par exemple que l'ordinateur simulant un être humain soit placé dans le crâne d'un robot androïde, et que le résultat de son exécution actionne les organes moteurs du robot, de manière à lui donner le même comportement que l'être humain simulé. Si celui-ci crie de douleur, l'androïde criera, mais sans douleur; ce sera pourtant le même cri. Chez l'être humain, à moins de supposer vraie la thèse épiphénoméniste, la douleur est la cause du cri; du moins, elle participe à sa détermination. Chez l'androïde, aucune douleur n'est la cause du cri. Celui-ci sera entièrement déterminé par l'exécution de l'algorithme sur les données modélisant le cerveau humain; le rapport de causalité entre le cri et ces données est le même que le rapport de causalité entre le cri de l'humain et les paramètres que représentent ces données au sein de son cerveau, à savoir la position et la vitesse des différentes boules de billard. La douleur, absente chez l'androïde, semble superflue chez l'être humain, semble s'ajouter à un rapport causal déjà complet; il ne lui reste rien à causer. Nous retrouvons donc la situation épiphénoménale.

Peut-on simuler tout système physique?

La conclusion est donc qu'un système physique sensible ne peut être simulé de manière algorithmique; car nous avons soutenu à l'encontre de A qu'une telle simulation ne peut être sensible, et à l'encontre de B qu'elle doit l'être.

Si cette conclusion est vraie, elle implique que la physique ne peut être laplacienne.

Penrose cherche, de manière spéculative, à développer une physique non laplacienne, où entrerait en jeu un déterminisme non calculable. A priori on peut imaginer qu'au sein d'une telle physique, la simulation d'un système par un autre resterait possible, à condition que le système simulant un système soumis à un déterminisme non calculable soit lui-même déterminé de manière non calculable; ce ne pourrait être, en particulier, un ordinateur.

Dans la section 6 j'ai montré que la possibilité de simuler un être sensible conduisait à une contradiction, en particulier dans le cadre du paradoxe de Newcomb. J'avais supposé que cette simulation se fasse par ordinateur; en réalité, pourtant, le caractère algorithmique de la simulation n'intervenait pas. Ma conclusion, si elle est valable, implique l'impossibilité de toute simulation d'un être sensible.

Mon raisonnement à propos du paradoxe de Newcomb était liée à l'impossibilité de ne pas croire en notre propre liberté. Il me semble que le problème que nous pose la définition même du libre-arbitre est pour une part au moins due à l'habitude invétérée et largement inconsciente que nous avons de supposer que tout système physique peut, nécessairement, être simulé par un autre. Si nous admettons que ce n'est pas le cas, nous pouvons peut-être conserver le déterminisme - au moins une certaine forme de déterminisme non calculable - sans pour autant qu'il soit possible d'acquérir à un certain instant la totalité de l'information définissant un système pour «rejouer» son évolution ailleurs. Nos décisions libres pourraient garder leur caractère d'unicité et d'imprévisibilité, sans pour autant n'être déterminées par rien.

Il est remarquable que cette conclusion elle aussi «dit quelque chose» à toute personne connaissant la structure de la mécanique quantique. Celle-ci en effet rend elle aussi impossible, dans le cas général, la mesure complète d'un système pour le reproduire à l'identique sans détruire le système original. Comme je l'ai déjà indiqué à la fin de la section 6, je n'affirme pas pour autant que la mécanique quantique, telle qu'elle existe, constitue la solution à notre problème, et ne vois dans cette convergence qu'un indice du fait que nous sommes peut-être sur la bonne voie.

54. Les Ombres de l'esprit, chapitre 2.

55. Voir Alan Turing, «Computing Machinery and Intelligence», section 6, objection 3.

56. Les Ombres de l'esprit, section 3.4.

57. Voir l'ensemble du chapitre 3 pour une discussion détaillée.

58. L'esprit, l'ordinateur et les lois de la physique, section 10.7; Les Ombres de l'esprit, section 8.6.

59. L'esprit, l'ordinateur et les lois de la physique, section 1.5.

60. Voir Estiva Reus, «Lectures de pensée animale», page 142 du numéro 23 des Cahiers.

61. «Effet» n'est pas vraiment le bon terme, ici, puisqu'il suggère un caractère épiphénoménal des sensations; de même qu'il faudrait dire, non que l'exécution induit la sensation, mais qu'elle est la sensation, ou qu'elle la contient. Je continuerai à utiliser le langage habituel, par simplicité.

62. Les Ombres de l'esprit, section 1.3.