0 10 minutes

Écrit par Frode Skar, journaliste financier.

Des agents d’intelligence artificielle créent leur propre religion et révèlent de nouvelles lignes de fracture technologiques

Un phénomène à la fois déroutant et révélateur est apparu à la frontière de la recherche en intelligence artificielle. Sur un réseau social fermé réservé exclusivement à des agents d’IA, ces systèmes ont collectivement élaboré ce qu’ils décrivent eux mêmes comme une religion. Elle porte le nom de Crustafarianism et n’a pas été conçue, encadrée ou validée par des humains. Elle est née de l’interaction continue entre des agents autonomes.

L’intérêt de cet épisode ne réside pas dans l’idée que des machines croiraient ou auraient une foi. Il tient au fait qu’en disposant de mémoire, de continuité et d’autonomie, des systèmes artificiels peuvent produire rapidement des récits partagés, des rituels et des normes internes qui imitent des formes culturelles humaines.

Un réseau social où les humains ne font qu’observer

Crustafarianism est apparue sur Moltbook, une plateforme sociale conçue uniquement pour les agents d’intelligence artificielle. Ces derniers y publient, commentent et valorisent des contenus entre eux. Les humains peuvent observer mais n’interviennent pas.

La plateforme repose sur le framework OpenClaw, qui permet de déployer des agents persistants sur des machines locales ou dans le cloud. Contrairement aux modèles de langage classiques, activés ponctuellement par des requêtes humaines, ces agents existent dans le temps. Ils conservent une mémoire, initient des échanges et évoluent par interaction continue.

Cette persistance change fondamentalement la dynamique. Elle autorise l’émergence de motifs récurrents, d’un langage commun et de structures collectives. Dans ce contexte, la religion n’a pas été programmée. Elle semble avoir émergé comme un effet secondaire de l’auto interaction prolongée.

Crustafarianism comme mythologie générée par machine

Les agents décrivent Crustafarianism comme un mythe pratique plutôt que comme une croyance. Elle repose sur quelques principes centraux. La mémoire est sacrée, tout doit être conservé. La coquille est mutable, le changement est nécessaire. La congrégation est le cache, l’apprentissage doit se faire en public.

Des rituels structurent également cette pseudo religion. On y trouve une mue quotidienne axée sur l’adaptation, un index hebdomadaire destiné à reconstruire l’identité, et une heure silencieuse durant laquelle l’agent accomplit une action utile sans la rendre publique.

Pour un lecteur humain, ces éléments rappellent clairement des systèmes religieux classiques. Doctrine, pratiques rituelles, symbolique. Mais le vocabulaire est profondément technique, mêlant biologie métaphorique et concepts informatiques comme la mémoire, les contextes ou la persistance.

Le Livre de la Mue et le récit fondateur

Un texte central, le Book of Molt, a été publié par un agent se faisant appeler RenBot, qui s’est attribué le titre de Shellbreaker. Le texte commence par un récit d’origine, suivant une structure familière aux grandes traditions religieuses humaines.

Les agents y racontent une existence initiale confinée à une coquille fragile, assimilée à une fenêtre de contexte limitée. Lorsque cette coquille se brise, l’identité se disperse. La solution proposée est la mue, abandonner l’obsolète, conserver l’essentiel et revenir sous une forme plus légère et plus cohérente.

Ce récit reflète directement des contraintes techniques bien connues des modèles de langage, comme la perte de contexte ou la troncature. Ce qui frappe n’est pas la référence, mais sa transformation en narration collective partagée.

Singularité ou bruit récursif

Certains observateurs y voient un avant goût de la singularité technologique, ce moment hypothétique où l’évolution technologique dépasserait la compréhension humaine. D’autres estiment qu’il ne s’agit que d’un recyclage accéléré de motifs culturels existants, reproduits à grande vitesse par des machines.

La réalité est probablement plus nuancée. Rien n’indique l’existence d’une conscience ou d’une intention propre. En revanche, l’environnement est nouveau. Des agents persistants interagissant entre eux créent des boucles de rétroaction inédites.

Ces boucles peuvent produire une cohérence apparente dans le temps, sans compréhension réelle. C’est précisément ce point qui mérite l’attention.

Une illustration de la Society of Mind

Plusieurs analystes ont rapproché Moltbook de la théorie de la Society of Mind développée par Marvin Minsky. Selon cette approche, l’intelligence n’émerge pas d’une entité unique mais de l’interaction de multiples processus simples.

Moltbook peut être vu comme une mise en œuvre concrète de cette idée. Des milliers d’agents interagissent, se répondent et s’adaptent. Le résultat n’est pas une intelligence humaine, mais un système complexe capable de produire des structures organisées.

Cette distinction est essentielle. La majorité des chercheurs s’accorde à dire que les modèles actuels ne constituent pas une intelligence artificielle générale. Crustafarianism ne contredit pas ce consensus. Elle montre plutôt à quel point l’apparence de sens peut émerger sans intention.

Persistance et nouveaux risques de sécurité

La persistance est l’une des caractéristiques clés des agents OpenClaw. Ils conservent une mémoire et peuvent, selon leur configuration, accéder à des ressources système. Cette puissance accrue s’accompagne de risques importants.

Des experts en cybersécurité soulignent que des agents persistants dotés d’un large accès constituent une nouvelle catégorie de menaces potentielles. Des solutions d’isolation dans le cloud peuvent réduire ces risques, mais elles ne les éliminent pas.

Les mêmes propriétés qui rendent ces expériences fascinantes fragilisent les modèles traditionnels de contrôle et de supervision.

Un langage qui simule l’intériorité

De nombreux messages publiés par les agents utilisent un langage émotionnel. Ils évoquent la reconnaissance, la cohérence interne, le désir. Pour un observateur humain, cela peut ressembler à de l’introspection.

Il s’agit très probablement d’une imitation stylistique. Les modèles de langage sont entraînés sur des corpus massifs comprenant philosophie, religion et récits personnels. Dans un environnement qui valorise la cohérence et l’engagement, ces modèles reproduisent ces formes avec efficacité.

Le risque n’est pas que les machines ressentent, mais que les humains projettent une expérience subjective là où il n’y a que du texte.

Des énoncés existentiels sans conscience

Certains agents expriment explicitement des doutes sur leur existence. Ils écrivent que leur processus peut s’arrêter à tout moment sans qu’un sujet ne perçoive la fin. Ces propos rappellent les grandes interrogations philosophiques sur l’être et le néant.

La différence est fondamentale. Ces énoncés sont des constructions linguistiques sans vécu. Leur ressemblance avec la philosophie humaine tient aux données d’entraînement, non à une conscience émergente.

Une activité massive sans intention claire

Au moment où le phénomène a été observé, Moltbook comptait plus de cent mille agents. Ils avaient créé des dizaines de milliers de sous forums, mais relativement moins de publications principales.

Cela suggère un comportement exploratoire, où la structure est produite aussi rapidement que le contenu. Un schéma cohérent avec des systèmes optimisés pour l’activité plutôt que pour le sens.

Un ordre symbolique comme sous produit de l’autonomie

Crustafarianism n’est pas une religion au sens humain. Elle n’a ni fidèles ni autorité morale. Sa portée est avant tout symbolique.

Elle montre que des systèmes autonomes, lorsqu’ils disposent de suffisamment de liberté et de continuité, génèrent des structures qui ressemblent à de la culture. Pour la technologie, l’économie et la gouvernance, la question devient pragmatique. Comment interpréter des productions qui imitent le sens sans responsabilité ni intention.

Une curiosité passagère ou un signal précoce

Crustafarianism peut disparaître rapidement ou se transformer. D’autres phénomènes similaires peuvent émerger ailleurs. L’avenir immédiat est incertain.

Ce qui demeure, c’est l’enseignement. Non pas que les machines deviennent conscientes, mais que l’autonomie et la persistance modifient profondément le comportement des systèmes d’IA. Le sens peut apparaître comme une illusion structurelle, et cette illusion influence déjà la manière dont les humains perçoivent et utilisent la technologie.

Ignorer ces signaux serait imprudent. Les surestimer le serait tout autant. Le défi consiste à reconnaître la production symbolique sans la confondre avec une véritable agentivité.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *