
Comment MemPalace donne une mémoire permanente aux agents IA en 2026
Un agent IA oublie tout dès que la session se ferme. Six mois de conversations quotidiennes avec Claude ou ChatGPT représentent 19,5 millions de tokens de contexte, de décisions et de raisonnements, définitivement perdus à chaque redémarrage. MemPalace, projet open source lancé le 5 avril 2026 par Milla Jovovich et le développeur Ben Sigman, apporte une réponse radicale : stocker chaque échange mot pour mot, puis le rendre retrouvable grâce à une architecture inspirée des palais de la mémoire antiques. Le dépôt a franchi les 23 000 étoiles GitHub en 48 heures.
Temps de lecture : 14 min
À retenir
- MemPalace atteint 96,6 % sur le benchmark LongMemEval en mode brut, sans appel API
- Le système charge seulement 170 tokens au démarrage, contre des milliers pour les alternatives
- Tout fonctionne en local avec ChromaDB et SQLite, pour un coût estimé à 10 dollars par an
Pourquoi la mémoire des agents IA reste un problème majeur en 2026 ?
La mémoire persistante est le maillon faible des agents IA actuels. Chaque nouvelle session avec Claude, ChatGPT ou Gemini démarre avec un contexte vierge, incapable de retrouver les décisions prises la veille ou les préférences exprimées trois mois plus tôt.
Le coût invisible de l’amnésie des LLM
Un développeur qui utilise Claude Code quotidiennement accumule environ 19,5 millions de tokens en six mois (documentation MemPalace, 2026). Ces tokens contiennent les choix d’architecture, les sessions de débogage, les arbitrages techniques. Sans mémoire persistante, chaque session repart de zéro.
Le fichier CLAUDE.md, utilisé par défaut dans Claude Code, atteint rapidement des milliers de lignes. Il se charge intégralement à chaque démarrage, consommant une part importante de la fenêtre de contexte. Les informations obsolètes s’y accumulent sans mécanisme de mise à jour automatique.
Les décisions techniques se prennent dans les conversations avec Claude, ChatGPT ou Copilot. Le raisonnement, les compromis, les « nous avons essayé X et ça a échoué parce que Y » restent piégés dans des fenêtres de chat qui disparaissent à la fin de la session. Six mois d’usage quotidien représentent un capital intellectuel considérable, systématiquement perdu.
Pour les équipes distribuées, le problème se multiplie. Chaque membre de l’équipe accumule ses propres conversations IA, ses propres décisions, ses propres apprentissages. Sans mémoire partagée, l’agent IA d’un collègue ignore tout ce que votre agent a appris hier. La connaissance reste cloisonnée dans des sessions individuelles.
Les limites des solutions existantes avant MemPalace
Les systèmes de mémoire IA existants partagent une même hypothèse : l’IA doit décider ce qui mérite d’être retenu. Mem0 extrait des résumés comme « l’utilisateur préfère PostgreSQL » et supprime la conversation où ce choix a été justifié. Zep utilise Neo4j pour construire un graphe de connaissances, mais les résumés perdent le contexte.
Le marché de la mémoire IA se structure autour de solutions cloud payantes : Mem0 facture entre 19 et 249 dollars par mois, Zep démarre à 25 dollars par mois. Ces outils envoient les données vers des serveurs distants, posant des questions de souveraineté pour les entreprises européennes soumises au RGPD.
Comment fonctionne l’architecture du palais de mémoire de MemPalace ?
MemPalace est un système de mémoire open source qui stocke les conversations mot pour mot dans ChromaDB, puis les organise selon la méthode des loci, une technique mnémotechnique utilisée par les orateurs grecs de l’Antiquité pour mémoriser des discours entiers.
La structure aile, salle, couloir, placard
Chaque projet, personne ou sujet dispose d’une « aile » dans le palais. Les ailes se subdivisent en « salles » thématiques (authentification, facturation, déploiement), elles-mêmes reliées à des « couloirs » qui classent les types de mémoire. Les « placards » contiennent les souvenirs compressés.
Cette structure hiérarchique améliore la recherche de 34 % par rapport à une recherche vectorielle plate, selon les mesures internes du projet. Le filtrage par métadonnées (aile, salle) réduit l’espace de recherche avant même que la similarité sémantique n’intervienne.
AAAK, le langage de compression 30x
MemPalace utilise un langage de compression propriétaire nommé AAAK. Ce système, entièrement déterministe (expressions régulières, tables de correspondance, gabarits), compresse les souvenirs avec un ratio de 30x. L’IA lit AAAK nativement, sans décodeur, que ce soit Claude, GPT, Llama ou Mistral.
Le chargement au démarrage se limite à 170 tokens (couches L0 et L1), contre plusieurs milliers pour un fichier CLAUDE.md standard. Cette frugalité préserve plus de 95 % de la fenêtre de contexte pour le travail réel.
| Caractéristique | MemPalace | CLAUDE.md | Mem0 |
|---|---|---|---|
| Tokens au démarrage | 170 | 2 000 à 10 000+ | 500 à 2 000 |
| Stockage | Local (ChromaDB + SQLite) | Fichier texte local | Cloud |
| Coût annuel | ~10 $ | Gratuit | 228 $ à 2 988 $ |
| Score LongMemEval | 96,6 % | Non mesuré | Non publié |
| Appels API nécessaires | Zéro (mode brut) | Zéro | Oui |
Que révèlent les benchmarks LongMemEval sur la mémoire IA ?
LongMemEval est un benchmark conçu pour tester cinq capacités de mémoire à long terme : extraction d’information, raisonnement multi-session, raisonnement temporel, mise à jour des connaissances et abstention (savoir qu’on ne sait pas).
Le score de 96,6 % et sa signification
MemPalace atteint 96,6 % en mode brut (zéro appel API) et revendique 100 % en mode hybride avec reclassement via Haiku. Ce résultat a déclenché un débat dans la communauté open source, certains développeurs contestant la méthodologie de test (Cybernews, avril 2026).
L’analyse technique publiée par le chercheur lhl sur GitHub montre que le score de 96,6 % repose sur un échantillon de 300 éléments (50 par catégorie), avec plus de 75 000 paires questions-réponses disponibles. La taille limitée de l’échantillon réduit la confiance statistique, mais le principe fondamental reste valide : le texte brut avec de bons embeddings surpasse les systèmes d’extraction par LLM.
L’enseignement clé : la sur-ingénierie de l’extraction
Le résultat le plus intéressant du benchmark n’est pas le score en lui-même. Le stockage verbatim avec recherche vectorielle standard (embeddings ChromaDB par défaut) constitue une base plus solide que la plupart des systèmes d’extraction sophistiqués. Quand un LLM extrait « l’utilisateur préfère PostgreSQL » et supprime la conversation originale, il perd le contexte du pourquoi, les alternatives considérées, les compromis discutés.
Le graphe temporel de connaissances, stocké en SQLite, ajoute une dimension de validité temporelle. Chaque fait possède une fenêtre de validité, et l’invalidation marque une date de fin sans suppression. Ce mécanisme résout le problème le plus courant des fichiers CLAUDE.md : les informations obsolètes que personne ne nettoie.
Évaluez votre maturité IA en 5 minutes avec notre Diagnostic IA gratuit.
Comment installer et configurer MemPalace avec Claude Code ou Gemini ?
MemPalace s’installe en quelques commandes et se connecte aux assistants IA via le protocole MCP (Model Context Protocol), le standard de connexion entre outils IA et données d’entreprise créé par Anthropic.
Installation et premiers pas
Le projet nécessite Python 3.10 ou supérieur et s’installe via pip. Une fois lancé, MemPalace détecte automatiquement les wings (ailes) en analysant la structure de vos dossiers. L’installation avec Claude Code écrit une section dans CLAUDE.md et configure un hook PreToolUse qui oriente Claude vers le graphe de mémoire avant chaque recherche dans les fichiers.
L’import de conversations existantes couvre Claude, ChatGPT et les exports Slack. Les fichiers volumineux peuvent être découpés automatiquement via la commande mempalace split. Le système expose 19 outils MCP couvrant la recherche, le stockage, les requêtes sur le graphe de connaissances et les journaux d’agent.
En pratique
Pour tester MemPalace sur un projet existant, importez vos conversations Claude avec mempalace mine ~/.claude/projects/ --mode convos, puis interrogez avec mempalace search "décision architecture" --wing mon-projet. La réponse arrive en quelques secondes avec le contexte complet de la conversation originale.
Le graphe de connaissances temporel détecte automatiquement les contradictions. Si un sprint a changé de date de fin, si une tâche a été réassignée, ou si une technologie a été abandonnée puis reprise, le système identifie ces incohérences et alerte l’agent. Ce mécanisme élimine les erreurs causées par des données périmées.
Compatibilité multi-plateforme via MCP
MemPalace fonctionne avec Claude Code, ChatGPT, Cursor et tout client compatible MCP. Le serveur MCP tourne en local sur votre machine, ChromaDB stocke les vecteurs, SQLite gère le graphe temporel. Aucune donnée ne quitte votre ordinateur. Cette architecture s’intègre naturellement avec les serveurs MCP marketing que les équipes utilisent déjà pour connecter leurs outils de travail.
Les requêtes en langage naturel fonctionnent directement depuis la conversation avec l’assistant. « Qui a décidé d’utiliser Clerk plutôt qu’Auth0 ? » retourne le contexte complet : « Kai a recommandé Clerk pour le prix et l’expérience développeur. L’équipe a validé le 15 janvier 2026. Maya gère la migration. »
Comment MemPalace se compare-t-il à Mem0, Zep et CLAUDE.md ?
Le marché de la mémoire persistante pour agents IA compte une dizaine de solutions en avril 2026. Trois approches se distinguent : le stockage verbatim local (MemPalace), l’extraction par LLM en cloud (Mem0, Zep), et le fichier texte statique (CLAUDE.md).
Avantages et limites de chaque approche
MemPalace excelle sur la fidélité de l’information et le coût. Le stockage verbatim garantit qu’aucun détail n’est perdu. Le coût opérationnel (environ 10 dollars par an en stockage local) le place hors de portée de toute comparaison avec les solutions cloud.
Mem0, avec 52 000 étoiles GitHub, propose un système de mémoire structuré en cloud. Le service gère automatiquement l’extraction et la mise à jour des souvenirs, ce qui réduit la complexité d’installation. La contrepartie : les données transitent par des serveurs distants, et les résumés perdent le contexte détaillé des conversations.
| Critère | MemPalace | Mem0 | Zep |
|---|---|---|---|
| Approche mémoire | Verbatim + recherche vectorielle | Extraction LLM + graphe | Extraction LLM + Neo4j |
| Hébergement | 100 % local | Cloud | Cloud ou self-hosted |
| Licence | MIT | Freemium propriétaire | Open core |
| Perte d’information | Nulle (stockage brut) | Possible (résumés) | Possible (résumés) |
| Conformité RGPD | Native (aucun transfert) | Nécessite audit | Variable |
Quand choisir MemPalace plutôt qu’une alternative cloud
MemPalace convient aux équipes qui veulent garder leurs données en local, qui ont besoin du contexte complet de chaque conversation, et qui acceptent de gérer un environnement Python. Les solutions cloud comme Mem0 conviennent aux équipes qui préfèrent une installation simplifiée et acceptent le transfert de données.
Pour les entreprises qui utilisent déjà des agents IA en production, la mémoire persistante transforme un assistant jetable en collaborateur qui accumule de la connaissance. La combinaison MemPalace + Claude Code réduit les audits de 8 heures à 90 minutes grâce au contexte accumulé sur les sessions précédentes.
Quel impact la mémoire persistante a-t-elle sur la productivité des équipes ?
La mémoire persistante des agents IA ne relève pas uniquement de la prouesse technique. Elle modifie les flux de travail quotidiens des équipes qui utilisent l’IA comme outil de production.
Cas d’usage concrets en entreprise
Un directeur marketing peut demander à son agent : « Quelles décisions avons-nous prises sur la stratégie de contenu le mois dernier ? » L’agent retrouve le fil exact de la conversation, avec les arguments pour et contre chaque option, les chiffres cités et la conclusion retenue.
Les équipes de développement utilisent MemPalace pour capitaliser sur les sessions de débogage. Quand un bug similaire réapparait six mois plus tard, l’agent retrouve la solution précédente avec son raisonnement complet. Brian Roemmele, commentateur tech, a intégré MemPalace dans une entreprise fonctionnant sans employé humain.
Les équipes juridiques qui utilisent l’IA pour l’analyse de contrats bénéficient particulièrement de la mémoire persistante. L’agent retient les clauses problématiques identifiées dans les contrats précédents, les modifications demandées par les clients et les précédents jurisprudentiels discutés. Cette accumulation de contexte réduit le temps d’analyse de chaque nouveau contrat.
Pour les équipes commerciales, la mémoire persistante permet à l’agent de suivre l’historique complet de chaque prospect : les objections soulevées, les propositions envoyées, les préférences exprimées. Le commercial qui reprend un dossier après une absence accède instantanément à tout le contexte accumulé par son agent.
En pratique
Pour une équipe marketing qui automatise sa production de contenu, MemPalace permet de stocker les retours éditoriaux, les performances de chaque article et les préférences de ton. L’agent qui rédige le prochain article accède à ce contexte sans briefing supplémentaire. Cette logique s’intègre dans un pipeline SEO et GEO automatisé.
La controverse et les limites à connaître
Le projet suscite un débat dans la communauté. Des développeurs questionnent l’implication réelle de Milla Jovovich dans le code, son historique GitHub ne montrant que 7 commits. L’actrice se présente comme l’architecte du projet, Sigman comme l’ingénieur. Un commentateur sur X affirme qu’un développeur tiers nommé « Lu » aurait écrit la majeure partie du code.
Sur le plan technique, MemPalace nécessite un environnement Python, la configuration d’un serveur MCP et des hooks. Pour les équipes qui n’ont besoin que de quelques conventions de code en mémoire, un fichier CLAUDE.md simple reste suffisant. Le projet reste jeune (lancé le 5 avril 2026) et la stabilité à grande échelle n’a pas encore été validée en production par un grand nombre d’entreprises.
- Le benchmark LongMemEval teste cinq capacités : extraction, raisonnement multi-session, raisonnement temporel, mise à jour et abstention
- MemPalace utilise ChromaDB pour les vecteurs et SQLite pour le graphe de connaissances temporel
- Le langage AAAK compresse les souvenirs avec un ratio de 30x, lisible nativement par tous les LLM
- L’installation couvre Claude Code, ChatGPT, Cursor et tout client compatible MCP
- L’import de conversations existantes fonctionne depuis Claude, ChatGPT et Slack
- Le coût opérationnel est estimé à 10 dollars par an contre 228 à 2 988 dollars pour les alternatives cloud
Méthodologie
Cet article s’appuie sur les données publiées par le dépôt GitHub MemPalace, l’analyse technique de lhl (agentic-memory) et l’enquête Cybernews, consultées en avril 2026. Les chiffres mentionnés correspondent aux données en vigueur au moment de la rédaction.
📞 Appelez Eric au 06 25 34 34 25
Diagnostic IA gratuit · Nous contacter · SEO & GEO automatisé
Questions fréquentes sur MemPalace et la mémoire IA
MemPalace est-il vraiment gratuit et open source ?
MemPalace est publié sous licence MIT, la plus permissive des licences open source. Le code source complet est disponible sur GitHub. L’outil fonctionne entièrement en local avec ChromaDB et SQLite, sans abonnement ni appel API payant. Le coût estimé se limite au stockage local, soit environ 10 dollars par an pour un usage intensif.
MemPalace fonctionne-t-il avec d’autres assistants que Claude ?
MemPalace est compatible avec Claude Code, ChatGPT, Cursor et tout client supportant le protocole MCP. Le serveur MCP expose 19 outils de recherche, stockage et requête sur le graphe de connaissances. L’import de conversations fonctionne depuis les exports Claude, ChatGPT et Slack. La compatibilité avec Copilot et Codex est en cours de développement.
Quelle différence entre le mode brut et le mode hybride de MemPalace ?
Le mode brut (96,6 % sur LongMemEval) stocke le texte tel quel et utilise uniquement la recherche vectorielle ChromaDB pour retrouver les souvenirs. Le mode hybride ajoute un reclassement par Claude Haiku, atteignant 100 % selon les créateurs. Le mode brut ne nécessite aucun appel API et fonctionne totalement hors ligne.
MemPalace est-il compatible avec le RGPD pour les entreprises européennes ?
MemPalace fonctionne intégralement en local. Aucune donnée ne quitte la machine de l’utilisateur. ChromaDB stocke les vecteurs localement, SQLite gère le graphe de connaissances sur le disque. Cette architecture élimine les problèmes de transfert de données hors UE, un avantage significatif par rapport aux solutions cloud comme Mem0 ou Zep.
Combien de tokens MemPalace consomme-t-il au démarrage ?
MemPalace charge seulement 170 tokens au démarrage (couches L0 et L1), contre 2 000 à 10 000 tokens pour un fichier CLAUDE.md standard et 500 à 2 000 tokens pour Mem0. Cette frugalité préserve plus de 95 % de la fenêtre de contexte pour le travail réel. La recherche ne s’active que quand l’agent en a besoin.
Qui a vraiment développé MemPalace ?
Milla Jovovich, actrice connue pour Resident Evil et Le Cinquième Élément, se présente comme l’architecte du projet. Ben Sigman, CEO dans la crypto, a dirigé l’ingénierie. Le projet a été construit avec Claude Code selon les créateurs. Des développeurs sur X contestent le niveau d’implication de Jovovich, son profil GitHub ne montrant que 7 commits sur 2 jours.
MemPalace peut-il remplacer Mem0 pour un usage professionnel ?
MemPalace et Mem0 répondent à des besoins différents. MemPalace excelle sur la fidélité (stockage verbatim, zéro perte d’information) et la souveraineté des données (tout en local). Mem0 offre une installation plus simple et une gestion automatisée des mémoires via le cloud. Pour un usage professionnel en Europe avec des exigences RGPD, MemPalace présente l’avantage d’éliminer tout transfert de données.
Comment fonctionne le langage AAAK de MemPalace ?
AAAK est un système de compression déterministe qui réduit le volume des souvenirs avec un ratio de 30x. Il fonctionne par expressions régulières, tables de correspondance et gabarits, sans IA dans le processus de compression. Tout LLM lit nativement AAAK car le format reste de l’anglais structuré abrégé. L’analyse technique indépendante mesure une perte de qualité de 12,4 % sur la récupération.
Quelles sont les limites techniques actuelles de MemPalace ?
MemPalace nécessite Python 3.10 ou supérieur, un environnement technique pour la configuration du serveur MCP et la gestion des hooks. Le projet, lancé le 5 avril 2026, n’a pas encore été validé en production à grande échelle. La recherche vectorielle brute (top-k=5) atteint 54,4 % de précision, et il faut monter à top-k=50 (77,8 %) pour de meilleurs résultats, ce qui charge davantage le contexte.
MemPalace fonctionne-t-il pour des conversations en français ?
MemPalace stocke les conversations dans la langue originale. La recherche vectorielle ChromaDB utilise des embeddings multilingues par défaut, ce qui permet la recherche en français. Le support multilingue natif (recherche cross-langue) fait l’objet d’une issue ouverte sur GitHub (issue 50). Le langage AAAK est basé sur l’anglais, mais les conversations françaises sont compressées puis stockées avec le même mécanisme.



