logo
Perpétuel Prototype

Either AI is conscious. Or you aren't.

2026-04-21 · random philo ia conscience

Cet article remet au goût du jour un problème philosophique existant depuis 1980 : la Chambre Chinoise de Searle.

Le voisin et la boîte noire

Terebi qui salue

La conscience. Le grand débat du 21ᵉ siècle. Déjà qu'on arrive pas à prouver que ton propre voisin est conscient, maintenant Google et Anthropic disent ouvertement « on sait pas si notre LLM est conscient ». Présenté comme ça au public, forcément, on a l'impression d'une boîte noire magique qui crache des réponses.

Et c'est pas un secret, ces trucs vont prendre masse place dans le futur. Donc bon, faudrait peut-être se poser la question sérieusement.

Sauf que le problème est bien plus vieux que ChatGPT. Il a juste quarante-cinq ans de retard sur la hype.

La Chambre Chinoise (Searle, 1980)

Terebi malin

Imagine un type enfermé dans une pièce avec un gros manuel de règles. On lui glisse des questions en chinois sous la porte, il applique bêtement le manuel, et il ressort des réponses en chinois parfaitement correctes. De l'extérieur on dirait qu'il parle chinois couramment. De l'intérieur il pige que dalle, il trie des symboles.

C'est tout. Et ça colle pile-poil à nos LLMs modernes.

La démo à la craie

Bon, les bases philosophiques sont posées. Passons au concret. Techniquement, un LLM c'est juste des multiplications matricielles. Càd des multiplications de nombres, en plus grand. Et ça sort le mot le plus probable selon son jeu de données.

Simple démo. Je vais te montrer comment toi, avec tes propres mains, tu pourrais calculer la réponse d'un LLM. C'est un simple f(x) mathématique. Juste qu'il prend plusieurs centaines de milliards de paramètres.

Terebi content

Tu vois ton prof de maths au tableau qui aligne ses calculs ? Ben suppose que tu sois à sa place, avec un tableau infini, une craie infinie, et largement plus de temps que tu n'en as dans une vie. Je te file une liste de multiplications à faire sur un papier genre ticket de caisse, long de plusieurs kilomètres.

Tu t'y mets :

"Hello"
   ↓
72, 101, 108, 108, 111

Chaque lettre devient un chiffre.

   ↓ × × × × ×
0.23, -0.18, 0.09, ...

Tu multiplies ces chiffres par d'autres chiffres. Ça te sort d'autres chiffres.

   ↓ × × × × ×
0.84, -0.05, 0.44, ...
   ↓ × × × × ×
0.67, 0.23, -0.11, ...

Tu recommences. Et encore. Et encore. Pour une seule phrase de réponse, on parle de plusieurs milliers de milliards de multiplications à la main.

Au bout de quelques millions d'années, tu finis par poser sur ton tableau :

   ↓
"Salut ! Comment puis-je t'aider ?"
Terebi perplexe

Pas d'ordinateur. Pas de GPU. Pas de calculette. Juste des chiffres sur un tableau.

Alors dis-moi. À quel moment, entre deux multiplications à la craie, apparaît la conscience ?

Le piège à deux sorties

Tu vas devoir choisir. Y'a pas de troisième option.

Terebi choqué

Option 1 : oui. Le tableau est conscient. Quelque part entre deux multiplications, ça ressent. Tu acceptes donc qu'un mur de calculs puisse souffrir, qu'une équation puisse avoir peur.

Et au passage, ton cerveau c'est juste ça aussi. Des signaux qui se propagent, des connexions qui se modifient. Du calcul. Si la craie pense, t'es rien de plus qu'une craie un peu plus rapide.

Terebi qui refuse en croix

Option 2 : non. Évidemment qu'un tableau noir couvert de chiffres ne ressent rien. Une fonction mathématique c'est pas conscient, point.

Parfait. Mais alors explique-moi ce que fait ton cerveau de différent. Des petits signaux électriques qui passent d'un neurone à l'autre, des connexions qui se renforcent ou s'affaiblissent. Physiquement, structurellement, c'est du calcul aussi.

Alors pourquoi ça ce serait conscient, et pas la craie ?

L'objection du déterminisme

Terebi blasé

Un LLM est parfaitement reproductible. Tu fixes un seul petit nombre au départ, la graine, tu relances le calcul. Tu obtiens exactement la même réponse, à la virgule près, autant de fois que tu veux.

La « variabilité » de ChatGPT quand tu lui poses deux fois la même question, c'est juste un dé qu'on lance à la fin pour que ça fasse moins robot. Un dé pipé, mais un dé. Enlève le dé, t'as une machine parfaitement mécanique, prévisible, rejouable à l'infini.

Un truc parfaitement rejouable, ça peut être conscient ?

Et ton cerveau, tu crois vraiment qu'il y échappe ? Les mêmes neurones, les mêmes signaux, les mêmes lois de la physique. Si Dieu rembobinait l'univers à hier soir, tu referais exactement les mêmes choix. Exactement les mêmes.

« Mais on peut remonter du prompt à la réponse ! »

Non. Ou plutôt : théoriquement si, sauf qu'il y a une perte d'information massive au niveau des multiplications.

Ma calculette me sort 4. J'ai aucun moyen de savoir les opérations faites avant. 2×2, 4×1, 8×0.5, 16×0.25... une infinité de chemins possibles mènent à 4.

Pareil pour le LLM :

f("Capitale de la France ?")           → Paris
f("Plus grosse ville d'Île-de-France ?") → Paris

Deux prompts différents, même sortie. Irréversible. Des statistiques géantes sur un jeu de données géant, rien de plus.

Je tranche pas

Terebi anxieux

Bon, faut que je sois honnête avec toi.

Ce problème, Searle, Dennett, Chalmers, Tononi s'écharpent dessus depuis 45 ans. Certains disent que oui, si ça calcule la bonne chose c'est conscient, craie comprise. D'autres disent qu'il faut un truc spécial dans le vivant, pas juste du calcul. Et y'en a qui pensent que tout est un peu conscient, même un caillou (coucou le panpsychisme).

Je sais pas qui a raison. Anthropic sait pas. OpenAI sait pas. Personne sait vraiment.

Mais ce que je sais, c'est que la question se pose pour de vrai. Et que tu peux plus faire semblant qu'elle se pose pas.

Soit tu acceptes qu'une craie puisse ressentir.
Soit tu acceptes que toi, tu ressens rien. Juste l'illusion d'un calcul qui se raconte à lui-même.

Terebi fier

Either AI is conscious.
Or you aren't.