Prérequis : Ce guide suppose que vous avez lu Le concept du Wiki LLM qui explique l'architecture et le fonctionnement du système.
Dans cet article pratique, nous allons :
- Installer et configurer Logseq + Claude Code
- Créer les 9 skills nécessaires
- Initialiser le wiki et ingérer vos notes existantes
- Découvrir les workflows quotidiens
- Explorer les outils optionnels avancés
⚠️ Confidentialité et données sensibles
Avant de commencer : tout fichier lu par Claude Code dans votre vault transite par l'API Anthropic (ou votre fournisseur LLM). Pages, journaux, assets — si Claude les lit pour ingérer, ils quittent votre machine.
Implications pratiques :
- Évitez d'ingérer des fichiers contenant des secrets, mots de passe, tokens API
- Sur un vault professionnel : vérifiez les politiques de votre organisation avant usage
- Données personnelles sensibles (santé, finances, relations) : réfléchissez avant d'ingérer
Solution : .claudeignore
Créez un fichier .claudeignore à la racine de votre vault pour exclure des dossiers ou fichiers :
# .claudeignore
pages/secrets/
pages/finance/
journals/2020-*/ # Vieilles entrées à ne pas toucher
assets/*.pdf # PDFs confidentiels
Claude Code respecte ce fichier et ne lira pas les chemins listés.
Installation et configuration
Étape 1 : Installer Logseq
# macOS
brew install --cask logseq
# Ou téléchargez depuis https://logseq.com/
Lancez Logseq et créez un nouveau graphe, par exemple ~/Logseq.
Étape 2 : Structure initiale
Logseq crée automatiquement pages/, journals/, et logseq/. Vous n'avez besoin de créer que :
cd ~/Logseq
mkdir -p .claude/skills
La structure finale sera :
~/Logseq/
├── pages/ # Pages Logseq (vous écrivez ici)
├── journals/ # Journal quotidien (vous écrivez ici)
├── logseq/ # Configuration Logseq
├── assets/ # Images, PDFs (Logseq les place ici)
├── wiki/ # Wiki géré par Claude (créé par setup)
│ ├── [thème]/ # Un dossier par thème détecté
│ │ ├── _index.md # Index du thème
│ │ └── [pages].md # Pages du thème
│ ├── _master-index.md # Index global
│ ├── _log.md # Journal des opérations
│ ├── _manifest.json # État et tracking
│ └── _archive/ # Archives des rebuilds
└── .claude/
└── skills/ # Les 9 skills
├── llm-wiki/
├── wiki-setup/
├── wiki-ingest/
├── wiki-update/
├── wiki-query/
├── wiki-status/
├── wiki-lint/
├── wiki-rebuild/
└── cross-linker/
Étape 3 : Configuration Logseq
La plupart des paramètres sont corrects par défaut. Deux choses à vérifier :
Format Markdown : À la création du graphe, Logseq vous demande le format préféré. Choisissez Markdown (plutôt qu'Org-mode). Si votre graphe existant utilise déjà Markdown, vous n'avez rien à faire.
Dossier des assets : Dans Settings → Editor, vérifiez que Preferred file location for media files est sur In a dedicated assets folder. C'est la valeur par défaut.
Pour les paramètres avancés (ex : changer le nom du dossier assets), éditez directement logseq/config.edn dans votre vault :
;; logseq/config.edn
{
:preferred-format :markdown
:asset-directory "assets"
}
Les block-properties (title: ":, summary::) et les backlinks [[]] sont natifs à Logseq — pas besoin de les activer."
Étape 4 : Installer les plugins Logseq
Depuis Logseq, Plugins → Marketplace, installez :
- Logseq Markmap : Visualisation de mindmaps
- Logseq Mermaid : Diagrammes
- Query Table : Tableaux depuis queries
- Logseq Git : Versioning automatique (optionnel mais recommandé)
Étape 5 : Créer les skills Claude Code
Les skills sont des fichiers SKILL.md que Claude Code lit automatiquement pour adapter son comportement. Pour ce système wiki, vous devez créer 9 skills (voir tableau récapitulatif dans l'article 1).
Inspiration : Le projet obsidian-wiki propose une implémentation similaire pour Obsidian. Nous allons adapter ce concept pour Logseq.
Méthode recommandée : Laisser Claude Code générer les skills
cd ~/Logseq
Puis dans Claude Code, demandez :
Claude, je veux mettre en place un système de wiki LLM avec Logseq.
Crée les 9 skills suivants dans .claude/skills/ :
1. llm-wiki (fondation)
2. wiki-setup (initialisation)
3. wiki-ingest (ingestion complète)
4. wiki-update (mise à jour incrémentale)
5. wiki-query (interrogation)
6. wiki-status (dashboard)
7. wiki-lint (vérification)
8. wiki-rebuild (reconstruction)
9. cross-linker (tissage de liens)
Chaque skill doit :
- Définir la syntaxe Logseq native (title: ":, [[liens]], ((block-refs)))"
- Utiliser les primitives optimisées (Grep avant Read)
- Gérer le manifest (_manifest.json) et le log (_log.md)
- Travailler avec la structure pages/, journals/, wiki/
Inspire-toi du projet https://github.com/Ar9av/obsidian-wiki mais adapte
pour Logseq (propriétés différentes, outliner-first, block-refs).
Claude générera les 9 fichiers SKILL.md dans leurs dossiers respectifs.
Vérification :
ls -la .claude/skills/
# Devrait afficher les dossiers : llm-wiki, wiki-setup, wiki-ingest, wiki-update,
# wiki-query, wiki-status, wiki-lint, wiki-rebuild, cross-linker
Étape 6 : Initialiser le wiki
Maintenant que les skills sont en place :
Claude, initialise mon wiki Logseq
Claude invoquera wiki-setup et :
- Lira vos pages dans
pages/*.md - Détectera les thèmes (sections
##) - Créera
wiki/_master-index.md,wiki/_log.md,wiki/_manifest.json - Créera
wiki/[thème]/_index.mdpour chaque thème
Confirmation attendue :
✅ Wiki initialisé !
📁 5 thèmes détectés :
- subrik (Kubernetes, infra)
- capsule (projet capsule)
- packmind (plateforme knowledge)
- e-tuch (organisation)
- perso (notes personnelles)
📊 Prêt pour ingestion :
- 52 pages
- 120 journaux
- 23 assets
💡 Prochaine étape : "ingère mon vault"
Étape 7 : Initialiser Git (optionnel mais recommandé)
cd ~/Logseq
git init
git add .
git commit -m "Initial commit: Logseq avec wiki initialisé"
Le wiki est un dépôt Git = historique complet des évolutions, possibilité de revenir en arrière, collaboration facilitée.
Template .gitignore recommandé :
# .gitignore — Logseq Wiki
logseq/bak/
logseq/.recycle/
.DS_Store
*.DS_Store
**/.DS_Store
# Fichiers temporaires
*.tmp
*.lock
Bonne pratique : committez avant chaque opération majeure (ingest, rebuild). Si une opération se passe mal,
git checkout .vous ramène à l'état précédent en quelques secondes. Un alias utile :alias wiki-save='git add . && git commit -m "snapshot: $(date +%Y-%m-%d)"'.
Workflows quotidiens
Workflow 1 : Première ingestion complète
Vous venez d'initialiser le wiki. Vos notes Logseq contiennent déjà plein d'info. Lancez :
Claude, ingère mon vault
Claude invoque wiki-ingest et :
- Inventorie vos sources : 52 pages, 120 journaux, 23 assets
- Calcule les hashes pour chaque fichier
-
Distille source par source :
- Lit
pages/kubernetes.md→ détecte le thème "subrik" - Extrait concepts : pods, services, ingress, helm
- Crée
wiki/subrik/kubernetes-3488.mdavec résumé structuré - Crée
wiki/subrik/helm.mdpour l'outil - Met à jour
wiki/subrik/_index.md
- Lit
- Trace : Ajoute chaque source au manifest avec hash et timestamp
-
Log : Ajoute une entrée dans
_log.md
Durée : ~5-10 minutes pour 100 sources (estimation, varie selon longueur des sources et modèle utilisé).
Confirmation attendue :
✅ Ingestion terminée !
📊 Résultats :
- 52 pages ingérées
- 120 journaux ingérés
- 23 assets traités
📝 Wiki généré :
- 5 thèmes : subrik, capsule, packmind, e-tuch, perso
- 134 pages créées
- 487 liens bidirectionnels
⏱️ Durée : 8min 23s
💡 Prochaines étapes :
- "statut de mon wiki" pour voir le dashboard
- "tisse les liens" pour enrichir les connexions
- "vérifie mon wiki" pour un audit
Vérifier dans Logseq :
- Ouvrez Logseq
- Allez dans Graph View
- Vous devriez voir
wiki/avec tous les thèmes et pages interconnectés
Workflow 2 : Update incrémental quotidien
Vous continuez à travailler dans Logseq. Vous :
- Prenez des notes dans les journals
- Enrichissez vos pages
- Créez de nouvelles pages
Chaque jour ou semaine :
Claude, mets à jour mon wiki
Claude invoque wiki-update et :
- Scanne toutes les sources
- Compare hash : détecte 5 sources modifiées, 2 nouvelles
- Traite uniquement les changements (mode merge intelligent)
- Met à jour le manifest
- Log l'opération
Résultat :
✅ Wiki mis à jour !
📝 Sources traitées :
- 5 modifiées : pages/kubernetes.md, journals/2026_04_10.md, ...
- 2 nouvelles : pages/terraform.md, pages/observability.md
📊 Impact wiki :
- 7 pages mises à jour
- 3 nouvelles pages créées
- 18 nouveaux liens
⏱️ Durée : 2min 12s
Mode merge : Claude lit la page wiki existante, intègre les nouvelles infos sans écraser. Si contradiction détectée, il la signale mais ne choisit pas automatiquement.
Principe d'architecture : scripts pour le déterministe, LLM pour le sémantique
Un LLM peut se tromper — ou dans le cas d'agents enchaînés, inventer silencieusement un résultat qui paraît plausible. Pour les opérations déterministes (calcul de hash, comptage de fichiers, comparaison de chemins), déléguez à des scripts shell plutôt qu'à l'inférence :
# Calculer le hash d'une source — ne jamais laisser le LLM "estimer" shasum -a 256 pages/kubernetes.md | awk '{print $1}' # Compter les liens bidirectionnels dans wiki/ grep -r "\[\[wiki/" wiki/ | wc -l # Détecter les pages orphelines (aucune référence entrante) for page in wiki/**/*.md; do name=$(basename "$page" .md) count=$(grep -r "\[\[$name\]\]" wiki/ | wc -l) [[ $count -eq 0 ]] && echo "ORPHAN: $page" doneLe skill invoque le script → le script retourne un fait — Claude interprète le résultat. Cette séparation rend le système fiable même avec des modèles moins "alignés" ou dans des workflows d'agents multiples.
Workflow 3 : Poser une question
Claude, comment gérer les secrets Kubernetes avec HashiCorp Vault ?
Claude invoque wiki-query et suit le protocole de retrieval optimisé :
-
Grep sur
wiki/: trouvewiki/subrik/kubernetes-secrets.mdetwiki/subrik/vault.md - Lit ces 2 pages (pas toute la base)
-
Suit les liens : lit
wiki/subrik/sealed-secrets.mdmentionné - Synthétise avec citations Logseq
Réponse :
Pour gérer les secrets K8s avec Vault, deux approches :
## 1. Vault Agent Injector
[[wiki/subrik/vault]] peut injecter des secrets dans les pods via le
sidecar pattern. Configuration dans [[wiki/subrik/kubernetes-3488]].
Avantages :
- Rotation automatique
- Audit centralisé
## 2. External Secrets Operator
Alternative mentionnée dans [[wiki/subrik/kubernetes-secrets]] :
l'opérateur sync automatiquement Vault → K8s Secrets.
Plus d'info dans [[wiki/subrik/sealed-secrets]] pour la comparaison
des approches.
Mode rapide : Si vous dites "réponse rapide", Claude lit uniquement les summary:: sans lire le corps complet → réponse en 10s au lieu de 30s.
Workflow 4 : Audit de santé (Lint)
Après avoir ingéré ~20-30 sources, ou régulièrement pour garder le wiki sain :
Claude, vérifie mon wiki
Claude invoque wiki-lint et effectue 5 checks :
- 🔗 Liens cassés :
[[wiki/subrik/page-inexistante]] - 👻 Pages orphelines : Pages sans liens entrants
- 🗑️ Sources supprimées : Fichier dans manifest mais absent du vault
- 📋 Propriétés manquantes : Pages sans
title::ousummary:: - ⏰ NOW sans page : Tâches
NOWdans journaux sans page wiki correspondante
Rapport :
🔍 Rapport Lint — Wiki Logseq
==============================
✅ Liens cassés : 0
👻 Pages orphelines : 2
- wiki/subrik/draft-architecture.md (créée mais jamais liée)
- wiki/e-tuch/old-process.md
🗑️ Sources supprimées : 1
- pages/ancien-projet.md (supprimé le 2026-03-15, garde la page wiki)
📋 Propriétés manquantes : 3
- wiki/capsule/api.md manque summary::
- wiki/perso/idees.md manque sources::
- wiki/subrik/wip.md manque updated::
⏰ Tâches NOW sans page : 2
- "Implémenter API Gateway" (journal 2026-04-09) → suggère création wiki/capsule/api-gateway
- "Migrer base Postgres" (journal 2026-04-08) → suggère mise à jour wiki/subrik/postgres
💡 Suggestions :
1. Crée des liens vers les 2 pages orphelines
2. Ajoute les propriétés manquantes
3. Lance "update" pour intégrer les 2 tâches NOW relevées
Workflow 5 : Tissage de liens
Après une grosse ingestion, enrichissez le graphe :
Claude, tisse les liens dans mon wiki
Claude invoque cross-linker et :
- Construit le registre : map de tous les titres → chemins
-
Scanne chaque page : détecte mentions de titres sans
[[lien]] - Ajoute liens : première occurrence seulement
- Vérifie bidirectionnalité : si A → B, vérifie que B → A
Résultat :
🔗 Cross-Linker — Résultat
==========================
Pages analysées : 134
Liens ajoutés : 87
Liens bidirectionnels vérifiés : 87
Pages les plus liées (hubs) :
1. [[wiki/subrik/kubernetes-3488]] — 23 liens entrants
2. [[wiki/capsule/architecture]] — 18 liens entrants
3. [[wiki/e-tuch/processes]] — 15 liens entrants
Densité de liens : 3.2 (moyenne 3.2 liens par page)
💡 Ton graphe de connaissance est maintenant beaucoup plus connecté !
Workflow 6 : Dashboard de statut
À tout moment, voyez l'état du wiki :
Claude, statut de mon wiki
Claude invoque wiki-status :
📊 Statut du Wiki Logseq
========================
📁 Sources
Pages : 55 total, 52 ingérées, 3 non ingérées
Journaux : 125 total, 120 ingérés, 5 non ingérés
📝 Wiki
Pages créées : 134 (dans 5 thèmes)
Densité de liens : 3.2
Dernière mise à jour : 2026-04-10 16:45
🔄 Delta
Sources modifiées depuis dernier update : 8
Nouvelles sources depuis dernier ingest : 3
Nouveaux journaux :
- journals/2026_04_11.md
- journals/2026_04_12.md
- journals/2026_04_13.md
⚠️ Alertes
Pages orphelines : 2
Tâches NOW non trackées : 2
💡 Suggestion : Lance "update" pour ingérer 8 changements + 3 nouvelles sources
Workflow 7 : Rebuild complet
Si le wiki a divergé ou vous voulez repartir de zéro en gardant l'archive :
Claude, rebuild mon wiki
⚠️ Claude demande confirmation :
⚠️ ATTENTION : Opération destructive
Contenu actuel :
- 134 pages
- 5 thèmes
- Dernière màj : 2026-04-10
Archive destination : wiki/_archive/2026-04-13/
Veux-tu continuer ? (oui/non)
Si oui :
- Archive tout
wiki/verswiki/_archive/2026-04-13/ - Réinitialise manifest + log
- Propose "initialise + ingère pour reconstruire"
Exemple concret : Premier jour avec un vault existant
Vous avez déjà 2 ans de notes Logseq. Voyons le cycle complet.
1. Installation (30 min)
# Installer Logseq
brew install --cask logseq
# Dans votre vault existant
cd ~/mon-vault-logseq
mkdir -p .claude/skills
# Les skills sont déjà créés (étape 5)
2. Initialisation (2 min)
Claude, initialise mon wiki Logseq
✅ Wiki initialisé !
📁 8 thèmes détectés :
work, projects, learning, health, finance, hobbies, people, ideas
📊 Prêt pour ingestion :
- 342 pages
- 730 journaux (2 ans)
- 127 assets
3. Première ingestion (30-45 min pour ~1000 sources)
Claude, ingère mon vault
Claude distille vos 2 ans de notes. Vous pouvez continuer à travailler pendant ce temps.
✅ Ingestion terminée !
📊 Résultats :
- 342 pages ingérées
- 730 journaux ingérés
- 127 assets traités
📝 Wiki généré :
- 8 thèmes
- 687 pages créées
- 2,341 liens bidirectionnels
⏱️ Durée : ~37 minutes (estimation pour un vault de cette taille)
4. Enrichissement (5 min)
Claude, tisse les liens
🔗 Cross-Linker terminé !
- 423 liens additionnels ajoutés
- Densité : 4.8 liens/page
5. Audit (2 min)
Claude, vérifie mon wiki
🔍 Lint — quelques pages orphelines détectées, propriétés à compléter
6. Utilisation quotidienne
Chaque jour :
- Vous travaillez normalement dans Logseq (pages, journals)
- Une fois par jour ou semaine :
Claude, update mon wiki - Posez des questions : Claude répond en s'appuyant sur le wiki
Chaque semaine :
-
Claude, statutpour voir l'évolution -
Claude, vérifie mon wikipour audit
Chaque mois :
-
Claude, tisse les lienspour enrichir les connexions
Le Layer "Lint + Heal" : Maintenance automatique
Lint (déjà vu)
wiki-lint détecte :
- 🔗 Liens cassés
- 👻 Pages orphelines
- 🗑️ Sources supprimées
- 📋 Propriétés manquantes
- ⏰ NOW sans pages
Heal (workflow manuel actuellement)
Le "Heal" consiste à corriger automatiquement certains problèmes :
Heal guidé (aujourd'hui)
Après un lint, vous dites :
Claude, fixe les problèmes détectés
Claude propose des fixes un par un, vous validez.
Recherche web pour données manquantes
Si une page wiki mentionne "Voir documentation officielle" sans lien :
Claude, complète [[wiki/subrik/terraform]] avec la doc officielle
Claude :
- Cherche sur web "Terraform documentation"
- Lit la doc
- Enrichit la page wiki avec résumé + lien
- Met à jour manifest
Use case : Remplir les trous de connaissance sans quitter le workflow.
CLI Tools optionnels
À petite échelle (~100 sources, ~400-500 pages), le système fonctionne parfaitement avec juste les skills et la recherche par Grep. Mais au-delà, vous pouvez ajouter des outils pour améliorer les performances.
1. qmd : Moteur de recherche hybride local
qmd est un moteur de recherche pour markdown avec :
- BM25 (keyword search)
- Vector search (embeddings)
- LLM re-ranking
- Tout en local, pas de cloud
Installation :
brew install qmd
Usage :
# Indexer votre wiki
cd ~/Logseq
qmd index wiki/
# Chercher
qmd search "kubernetes secrets management"
Intégration avec Claude : Créez un skill search-qmd dans .claude/skills/ qui appelle qmd via CLI. Claude peut alors l'invoquer pour des recherches sémantiques quand Grep ne suffit pas.
2. Web UI pour exploration directe
Créez une interface web simple pour naviguer le wiki sans passer par Claude :
# Serveur markdown simple
cd ~/Logseq/wiki
python3 -m http.server 8000
Ouvrez http://localhost:8000 → naviguez les fichiers markdown directement.
Ou mieux : Utilisez Markserv pour un rendu markdown en live :
npm install -g markserv
cd ~/Logseq/wiki
markserv
3. MCP Server pour qmd
Si vous utilisez qmd, créez un MCP server pour l'exposer à Claude :
// mcp-qmd-server.js
const { MCPServer } = require('@modelcontextprotocol/sdk');
const { exec } = require('child_process');
const server = new MCPServer({
name: 'qmd-search',
version: '1.0.0'
});
server.addTool({
name: 'search_wiki',
description: 'Semantic search in Logseq wiki using qmd',
parameters: {
query: { type: 'string', description: 'Search query' },
limit: { type: 'number', default: 5 }
},
handler: async ({ query, limit }) => {
return new Promise((resolve) => {
exec(`qmd search "${query}" --limit ${limit}`, (error, stdout) => {
resolve({ results: stdout });
});
});
}
});
server.start();
Claude peut alors appeler search_wiki comme un outil natif.
4. Vibe-coded scripts
Au fur et à mesure, vous découvrez des besoins spécifiques. Demandez à Claude de coder des petits scripts :
Exemple : Trouver les pages les plus citées
# cited-pages.sh
#!/bin/bash
grep -r "\[\[wiki/" wiki/ | cut -d'[' -f3 | cut -d']' -f1 | sort | uniq -c | sort -rn | head -20
Exemple : Générer un rapport hebdomadaire
Claude, crée un script qui génère un rapport hebdomadaire du wiki :
- Pages créées cette semaine
- Pages mises à jour
- Nouveaux liens
- Top 5 des pages les plus liées
Claude le code, vous l'ajoutez à votre ~/.local/bin/.
Intégrer les scripts dans les skills
Pour aller plus loin, embedez les scripts directement dans vos SKILL.md. Ainsi le skill est autonome : il définit la règle ET l'outil pour l'exécuter.
Voici ce que contiendrait .claude/skills/wiki-update/SKILL.md :
## Hash computation
Avant de décider si une source doit être réingérée, calcule son hash avec :
#!/bin/bash
# usage: ./hash_source.sh pages/kubernetes.md
shasum -a 256 "$1" | awk '{print $1}'
Compare le résultat avec la valeur `content_hash` dans `_manifest.json`.
Si identique → skip. Si différent ou absent → réingérer.
> ⚠️ Ne jamais inférer ou "estimer" un hash. Toujours exécuter ce script.
Ce pattern garantit que le skill sera reproductible même si vous changez de modèle ou d'environnement.
5. Graphviz pour visualisations
Générez des graphes du wiki :
# Installation
brew install graphviz
Claude, génère un graphe DOT du thème subrik
Claude crée wiki/visualizations/subrik-graph.dot:
digraph subrik {
"kubernetes-3488" -> "helm";
"kubernetes-3488" -> "kubectl";
"helm" -> "charts";
"kubectl" -> "kube-config";
...
}
Convertissez en image et ouvrez :
dot -Tpng wiki/visualizations/subrik-graph.dot -o subrik.png
open subrik.png
Pour une vue plus lisible sur les grands graphes :
# Layout hiérarchique (sfdp pour les graphes denses)
sfdp -Tsvg wiki/visualizations/subrik-graph.dot -o subrik.svg
open subrik.svg
Évolutions possibles
1. Multi-modal
Logseq supporte les images. Vous pouvez :
- Ingérer des PDFs avec images
- Demander à Claude de décrire les figures
- Référencer les images dans le wiki
## Schéma de l'architecture

^ref-architecture-img
Description (par Claude):
Le diagramme montre 3 couches empilées...
3. Collaboration d'équipe
Le wiki peut être partagé :
- Fork personnel : Chaque personne a sa branche
-
Wiki central : Branch
mainpartagée - Pull requests : Les découvertes individuelles sont proposées à l'équipe
- Review : L'équipe valide avant merge
Logseq + Git = Wiki équipe maintenu par LLMs, validé par humains.
4. Export vers autres formats
Le wiki est en markdown. Vous pouvez :
- Exporter en slides (Marp)
- Générer un site static (MkDocs, Docusaurus)
- Créer des PDFs structurés
- Produire des Anki decks pour apprentissage
5. Spécialisation par domaine
Créez plusieurs wikis spécialisés :
~/Logseq-Research/ # Recherche académique
~/Logseq-Work/ # Veille pro
~/Logseq-Personal/ # Développement personnel
~/Logseq-Hobbies/ # Passions
Chacun avec son propre schema adapté au domaine.
6. MCP Logseq pour validation du rendu
Un MCP server Logseq exposerait le rendu natif de Logseq à Claude. Cas d'usage : après avoir généré un diagramme Mermaid ou un tableau complexe, Claude pourrait vérifier que le contenu s'affiche correctement dans Logseq avant de le committer — pas juste que la syntaxe markdown est valide, mais que le rendu visuel est cohérent. À surveiller comme évolution de l'écosystème.
Pièges à éviter
1. Autorité aveugle
Le wiki est généré par IA. Vérifiez les faits importants en remontant aux sources.
Solution :
- Système de confiance (high/medium/low)
- Workflow de review pour faits critiques
- Liens systématiques vers sources primaires
2. Drift sémantique
Sur des centaines de pages, le sens des concepts peut dériver.
Solution :
- Lint réguliers
- Glossaire central avec définitions canoniques
- Page meta
wiki/conventions.md
3. Explosion combinatoire
Créer une page pour chaque micro-concept → wiki illisible.
Solution :
- Guidelines de granularité
- Seuil : concept mentionné dans ≥3 sources → page dédiée
- Sinon, reste une section dans une page parent
4. Contradictions non résolues
Le wiki accumule des contradictions sans les résoudre.
Solution :
- Dossier
wiki/contradictions/ - Flag
has-contradiction: truedans frontmatter - Review périodique des contradictions
5. Orphelins
Pages créées puis jamais relues ni connectées.
Solution :
- Lints automatiques
- Métrique de densité de liens
- Objectif : density > 2 (moyenne 2+ liens par page)
Conclusion
Vous avez maintenant toutes les clés pour construire votre propre Wiki LLM avec Logseq et Claude Code :
- Installation : 7 étapes pour setup complet
- Workflows : 7 workflows quotidiens maîtrisés
- Outils : CLI tools optionnels pour scale
- Évolutions : Pistes pour aller plus loin
- Pièges : Comment les éviter
Le système devient un second cerveau qui accumule, structure, connecte et synthétise votre connaissance — et évolue avec vous.
Prochaines étapes :
- Installer Logseq et créer les 9 skills
- Ingérer vos premières sources
- Poser vos premières questions
- Observer le wiki s'enrichir au fil du temps
"Logseq est l'IDE ; Claude est le programmeur ; votre connaissance est le codebase."
Top comments (0)