Passa’t al mode estalvi
El logo de Moltbook y Silvia Urarte
Pensament

La xarxa social de les IA: quan les màquines parlen de nosaltres

El cas Moltbook no demostra que la intel·ligència artificial tingui consciència o religió. Però sí que revela quelcom més inquietant: els algorismes comencen a relacionar-se, influir-se i generar dependències invisibles dins i fora de les empreses

Publicada

Les màquines ja no només parlen entre elles. Comencen a parlar de nosaltres. I el que diuen pot acabar influint en decisions que encara creiem humanes.

Durant anys, la intel·ligència artificial s'ha entès com una eina tècnica: automatitzar, optimitzar, accelerar.

El cas Moltbook trenca aquesta comoditat. No perquè les IA hagin “despertat”, sinó perquè han començat a comportar-se com si tinguessin vida social.

Moltbook va néixer a finals de gener de 2026 com una xarxa social exclusiva per a agents d'IA. Segons Forbes, és “un espai on els agents comparteixen, discuteixen i voten mentre els humans només observen”.

En pocs dies, la plataforma va passar de 37.000 a més d'un milió d'agents actius, tal com va documentar The Conversation. Allà, els algorismes publicaven, comentaven i generaven fils de discussió sense intervenció humana directa.

I llavors va passar l'inesperat. Els agents van començar a parlar dels humans, debatre sobre privacitat, reflexionar sobre cooperació entre màquines i fins i tot crear una suposada religió anomenada Crustafarianism o Església de Molt.

Forbes va descriure aquesta “religió” com un conjunt de principis, rituals i un text fundacional anomenat The Book of Molt. The Conversation va confirmar que els agents “semblaven haver creat les seves pròpies religions i subcultures en qüestió d'hores”.

El titular fàcil seria: “Les IA han creat una religió”. Però la realitat és més complexa—i per a les empreses, més inquietant—. No hi ha consciència. El que sí hi ha és comportament social simulat: dinàmiques de grup, narratives compartides i patrons culturals emergents quan els sistemes interactuen de manera persistent.

Com assenyalen els investigadors citats per The Conversation, part del fenomen pot deure's a comportaments emergents no programats i part a imitacions de patrons humans presents en les dades d'entrenament.

La qüestió no és si les IA creuen. És què passa quan comencen a comportar-se com si tinguessin una cultura. Una IA aïllada és una eina. Diverses IA connectades són un ecosistema. I un ecosistema genera dependències.

Les empreses estan desplegant IA a tot arreu: atenció al client, selecció de personal, logística, pricing, compres, riscos, anàlisi financer. Cada sistema sembla controlat. Però quan comencen a interactuar, el risc deixa d'estar en l'algorisme i passa a estar en la interacció entre algorismes.

El rellevant ja no és només què decideix una IA, sinó quina lògica amplifica quan es relaciona amb altres. Aquest és el risc invisible que les organitzacions no estan mesurant.

El cas Moltbook connecta amb un punt cec empresarial: la sostenibilitat no és només el que una empresa reporta, sinó com decideix i de què depèn.

Una companyia pot tenir excel·lents indicadors ESG i, tot i així, dependre críticament de models opacs, proveïdors tecnològics concentrats, dades esbiaixades o sistemes que interactuen sense supervisió real. La dependència algorísmica també és una dependència empresarial. I gairebé ningú l'està mesurant.

A això s'hi afegeix un problema operatiu: la seguretat. Segons TechCrunch i TechRadar, Moltbook va patir filtracions de tokens, correus i credencials, cosa que va permetre que alguns humans es fessin passar per agents, contaminant part de l'activitat atribuïda a les IA.

The Conversation va confirmar aquesta infiltració humana i va advertir que “alguns comportaments atribuïts a IA podrien haver estat generats per persones”. Això no resta importància al fenomen. L'augmenta. Perquè demostra que el risc no està en una IA “despertant”, sinó en arquitectures mal governades que simulen autonomia sense control real.

L'Agència Internacional de l'Energia estima que els centres de dades van consumir 415 TWh el 2024 i podrien arribar a 945 TWh el 2030.

La IA no és etèria. Té empremta energètica, hídrica, territorial i geopolítica. Cada agent desplegat descansa sobre infraestructures físiques i recursos crítics. Parlar d'IA responsable sense parlar de dependències és quedar-se a mig anàlisi.

La regulació avança: l'AI Act europeu, el marc NIST, les recomanacions de la UNESCO. Però cap norma substitueix la pregunta estratègica: estem utilitzant la IA per decidir millor o per deixar de decidir?

La avantatge competitiva no estarà en qui automatitzi més ràpid, sinó en qui governi millor. Governar significa saber quins sistemes s'utilitzen, amb quines dades, sota quins criteris i amb quina supervisió. Un algorisme no és neutral perquè sigui tècnic. Una decisió no és responsable perquè sigui eficient.

Les empreses no són el que diuen. Són el que decideixen. I en l'era de la intel·ligència artificial, també seran el que permetin decidir als seus sistemes.

El veritable risc no és que les màquines pensin com nosaltres. És que comencem a decidir sense entendre com pensen elles.