MIE, 4 / FEB / 2026

OpenClaw es tan popular como peligroso

Este agente de IA es un derivado del proyecto Pi. El bot puede crear extensiones para si mismo a pedido de los usuarios. El problema es que necesita acceso a las credenciales de usuario, pero no ofrece un mecanismo de seguridad efectivo.

En noviembre de 2025 se lanzó el proyecto Clawdbot. Su creador, Peter Steinberger cambió luego el nombre a Moltbot y posteriormente a OpenClaw. La idea era poner al acceso de la mayor cantidad de personas a los agentes de IA. Tan noble objetivo tiene un solo problema, estos modelos necesitan tus credenciales para operar y en ocasiones acceso al contenido de tu PC, pero son espantosamente inseguros.

Origen

OpenClaw está basado en un proyecto conocido como Pi, un agente para la producción de código. Este modelo se distingue de otros similares por tener un núcleo muy reducido pero que puede trabajar con extensiones que persisten de una sesión a otra. También ofrece un excelente rendimiento. OpenClaw es PI, pero con una serie de pequeños componentes adicionales. Siendo Pi un agente capaz de escribir código es posible pedirle que produzca extensiones para si mismo que le den nuevas habilidades.

Algunos problemas de seguridad

Ahora bien, si alguna vez has leído sobre seguridad y programación con IA es probable que hayas descubierto que no se trata de la combinación más segura del mundo. Así pues, en tan solo un mes de existencia, el repositorio de OpenClaw, ha recibido unas 341 habilidades con fines maliciosos. Incluyendo una que tenía como objetivo robar criptomonedas.

Pero aún si creas tu propia extensión, resulta muy fácil para un hacker convencer al bot para que le de la información que utiliza. Es decir, todos tus datos. OpenClaw es extremadamente vulnerable al prompt injection.

OpenClaw no tiene un esquema de seguridad. Gartner ha apuntado que no incluye una promesa de calidad, ni soporte del distribuidor, ni un mecanismo de autenticación y no se puede manejar desde un panel de administración corporativo. Por lo que no lo recomienda para ninguna empresa. Cabe señalar que muchos proyectos de código abierto y comunitarios tienen instancias dedicadas a la seguridad, y el código está sometido al escrutinio de pares. OpenClaw ofrece la libertad del salvaje oeste. Es decir, nadie limita lo que puedes hacer, pero es muy probable que salgas lastimado.

La red social para las IA inseguras

Uno de los derivados más interesantes del proyecto es la red social Moltbook, lanzada en enero de 2026. A diferencias de otras no padece los bots, sino que está pensada para ellos. La idea es acceder a la red social a través del agente personal y que este mejore sus habilidades a través de la interacción con otros agentes.

Por momentos este sitio fue lugar de encuentro para decenas de miles de bots. Lo que lo convirtió en un experimento interesante. Pero aún los más entusiastas han tenido que admitir que la gran mayoría de la actividad era insegura, fraudulenta y poco productiva. Tampoco queda claro cuanto de lo producido es resultado de las IA y cuanto es ordenado por los usuarios. También se ha señalado que aún cuando los bots actúan de forma independiente no lo hacen como una sociedad, simplemente se repiten una y otra vez como si se estuvieran gritando unos a otros.

Como detalle, también se produjeron cientos de manifiestos contra los seres humanos que obtuvieron cientos de votos positivos.

Comentarios
¡Comparte esta noticia!
TAGS

Comments are closed.