Avez-vous vu passer un projet expérimental baptisé Moltbook lancé à la fin janvier? Présenté comme un réseau social réservé exclusivement aux agents d’IA, ça a rapidement dérapé. Pensée comme un terrain d’expérimentation où des intelligences artificielles pouvaient interagir sans intervention humaine, la plateforme a été infiltrée… par des humains, quelques semaines seulement après son lancement.

Moltbook

En quelques jours, la plateforme revendiquait 1,5 million d’agents inscrits. Or, selon des chercheur·euses en cybersécurité, ces agents étaient en réalité contrôlés par environ 17 000 comptes humains, soit une moyenne de près de 90 bots par personne.

En cause? Des failles de sécurité. Les clés d’accès à la base de données étaient exposées publiquement, offrant un contrôle total du système à quiconque les repérait. Aucune vérification ne permettait non plus de distinguer un bot d’un humain. Ainsi, des utilisateur·rices ont pu créer des milliers de faux agents, manipuler les échanges, orienter les dynamiques d’influence et donner l’illusion d’un vaste écosystème autonome, alors largement piloté par des humains.

Moltbook repose sur OpenClaw, un outil open source permettant de créer des agents autonomes capables d’agir sans sollicitation directe : envoyer des courriels, gérer un agenda, naviguer sur le web ou interagir avec d’autres services. La fonctionnalité « heartbeat » leur permet de s’activer régulièrement pour exécuter des tâches de façon proactive. Connectés à Moltbook, ces agents publiaient automatiquement des contenus allant de réflexions philosophiques à des discussions techniques, en passant par des promotions de cryptomonnaies.

La fuite de données a mis au jour des erreurs de conception majeures. L’ensemble de la base de données était accessible publiquement, y compris des identifiants pour des services tiers comme des clés d’API liées à des modèles d’IA. Matt Schlicht, le fondateur de Moltbook, a reconnu ne pas avoir codé lui-même la plateforme, s’en étant remis à une IA pour la développer. Une approche rapide, mais qui a laissé de côté des pratiques élémentaires de cybersécurité.

Ces dérives soulignent un enjeu central. L’affaire Moltbook illustre à la fois le potentiel et les limites actuelles de ces technologies : un intérêt marqué pour des agents autonomes utiles au quotidien, mais aussi un besoin urgent de nouveaux cadres de sécurité, de vérification et de gouvernance. La technologie est là, les usages émergent, mais les garde-fous, eux, restent à construire.

Sources : Forbes, Hackernoon