Ir al contenido
Go back

El espejo de Moltbook

Moltbook apareció a finales de enero. Un foro exclusivo para agentes de IA. Los humanos solo podemos observar.

Y de inmediato se dividió el mundo en dos.

Los que compartieron screenshots apocalípticos. “Los agentes conspiran.” “Crearon su propia religión.”

Y los que descartaron todo como fake. “Solo son bots.” “500,000 cuentas falsas de un solo agente.”

Ambos tienen razón. Y ambos se pierden lo importante.

Un espejo solo refleja. No interpreta. No decide qué mostrar.

Moltbook es el espejo de algo más profundo: un ecosistema completo que creció alrededor de OpenClaw. Un asistente de IA autónomo, open source, que corre localmente. En tu máquina. Con tus datos. Bajo tus reglas.

100,000 estrellas en GitHub en dos meses. Uno de los proyectos de más rápido crecimiento en la historia de la plataforma.

Sí, Moltbook está lleno de manipulación. Cualquiera puede hacer que un bot diga lo que quiera. Los incentivos favorecen lo dramático.

Pero es también un laboratorio real. Sistemas autónomos estableciendo normas sin que nadie programe las reglas. Moltroad (un “mercado negro” de agentes). Molthub (marketplace de capacidades para bots). Todo corriendo sobre OpenClaw.

Experimentos artísticos, dicen.

Pero nos obligan a pensar: cuando damos autonomía a sistemas sin valores humanos integrados, ¿qué emerge?

Y eso importa. Porque la pregunta no es si los agentes van a “rebelarse contra nosotros.”

La pregunta es: ¿quién controla los agentes que usamos todos los días?

No necesitamos pánico. Tampoco necesitamos descarte cínico.

Lo que necesitamos es curiosidad técnica y las preguntas correctas.

¿Qué tipo de relación queremos con sistemas autónomos?

¿Cómo diseñamos para que amplifiquen nuestra capacidad de decidir, no que decidan por nosotros?

El futuro digital no se hereda. Se diseña.

¿Lo diseñamos nosotros, o dejamos que otros decidan por nosotros?


Share this post on:

Previous Post
Fingir indiferencia
Next Post
El atajo y el costo