Mon workflow de capture : veille, idées et tâches dans Obsidian
Un bot Telegram, un daemon Python, GPT-5.4 et Obsidian. Comment j'ai construit un système de capture qui trie, enrichit et classe tout ce que je lis et pense.
Le problème
On lit 50 trucs par jour. On en retient 2. Le reste disparaît dans un cimetière de bookmarks, un onglet "Read Later" qui ne sera jamais lu, ou une note vocale qu'on ne réécoute jamais.
Le réflexe classique, c'est d'empiler les apps : Pocket pour les articles, Notion pour les notes, Todoist pour les tâches, un dossier "Inspirations" quelque part. Quatre endroits, quatre logiques, aucune connexion entre eux. Et au bout de trois semaines, on ne sait plus où on a mis quoi.
Ce qui manque, c'est un pipeline. Pas un "second brain" à la mode PKM. Un tuyau. Un point d'entrée, un traitement, un point d'arrivée.
Le principe : un point d'entrée, un point d'arrivée
Mon système tient en une phrase : tout passe par Telegram, tout arrive dans Obsidian.
Pas quatre apps. Pas trois workflows. Un seul geste : partager vers un bot Telegram depuis l'iPhone. Le bot identifie ce que c'est (un article, un tweet, une idée, une tâche), l'enrichit avec GPT, et l'écrit dans le bon dossier du vault Obsidian. C'est tout.
Le résultat, c'est que chaque capture arrive triée, résumée, scorée et reliée au reste de mes notes. Sans intervention manuelle.
Le point d'entrée : l'iPhone
Deux gestes, pas plus :
Le share sheet. N'importe quel lien (article, tweet, post Instagram) : je partage vers la conversation Telegram du bot. Le bot reçoit l'URL et démarre le pipeline.
Le bouton action. Le bouton physique sur le côté de l'iPhone est programmé pour ouvrir le bot Telegram. J'appuie, je dicte une idée ou une tâche en vocal (Wispr Flow nettoie le texte), j'envoie. C'est capturé.
L'avantage de Telegram comme point d'entrée : c'est une app qu'on a déjà, elle fonctionne offline (les messages partent quand la connexion revient), et le bot API est simple à utiliser.
Les 5 pipelines
Le bot ne fait pas la même chose avec un article et une pensée brute. Il classifie le message et applique le bon pipeline.
1. Un article
Je partage un lien. Le daemon scrape le contenu avec trafilatura, l'envoie à GPT-5.4 qui produit : titre, auteur, synthèse dense, idées clés, une question ouverte, une action suggérée, et un score de pertinence de 1 à 5. Le tout est écrit dans Clipping/.
Voilà ce que ça donne pour un article de Craig Mod sur les logiciels personnels :
Score : [■■■■□] 4/5
Synthèse : L'article défend une thèse simple : les modèles de code rendent viable la création de logiciels "N=1", conçus pour un usage individuel. Mod illustre ça avec un logiciel comptable sur mesure développé en cinq jours.
Action : Identifier un workflow contraint et lancer un prototype IA-first pour tester la valeur d'un produit sur-mesure.
La note Obsidian contient la synthèse, les idées clés, la question ouverte, l'action suggérée, et le texte source complet en accordion. Tout est dans le frontmatter : score, tags, topics, date de capture.
2. Un tweet
Les tweets passent par l'API FXTwitter (pas de scraping fragile). Le bot récupère le texte, les images (téléchargées localement), les thumbnails vidéo, et surtout : il scrape les liens externes trouvés dans le tweet. Si quelqu'un partage un article dans un thread, le bot va chercher l'article, le résume, et l'intègre à la note.
Synthèse : Le tweet défend la création d'une base de connaissances centralisée comme levier pour les marketeurs IA. Un agent connecté à un corpus structuré (hooks, créas, threads concurrents) peut rechercher et transformer ces ressources.
Action : Structurer un dossier source de contenus marketing et le connecter à un agent LLM.
→ _Inbox/From X/ + 1 image téléchargée
La différence avec un simple bookmark : la note contient le texte du tweet, l'image en local (pas de lien externe qui casse), les stats (likes, RT), et si le tweet contient un lien vers un article, cet article est aussi scrapé et résumé dans la même note.
3. Un post Instagram
Note légère avec le lien et le commentaire. Instagram n'a pas d'API publique exploitable, donc pas d'enrichissement. C'est un signet glorifié, mais au moins il est au même endroit que le reste.
4. Une pensée brute
Je dicte "Pour Lucira, le logo pourrait être un RSS en feuille de laurier". Le bot détecte que c'est du texte brut (pas de lien), l'envoie à GPT qui reformule en version dense, génère un titre, et ajoute une connexion intellectuelle avec un concept existant. La note arrive dans _Inbox/Thoughts/.
Reformulation : Pour Lucira, le logo pourrait reprendre la forme de l'icône RSS en la fusionnant avec une feuille de laurier. Combinaison moderne, lisible, avec une idée de distinction et de veille.
Connexion : Le laurier renvoie à la tradition de la victoire. L'associer au RSS crée un pont entre prestige symbolique et circulation de l'information.
5. Une tâche
Si GPT détecte que le message est un todo plutôt qu'une pensée (verbe d'action, intention de faire quelque chose), il le reformule en tâche, le taggue automatiquement (#sewan, #perso, #ai, #kids, #finance, #heighliner), et l'ajoute en append au fichier Captured Tasks.md. Pas de nouvelle note, juste une ligne de plus dans la liste.
Pourquoi ces choix
Telegram plutôt qu'un raccourci iOS ou une app dédiée. Telegram a un bot API simple, il marche offline (les messages partent quand la connexion revient), et c'est une app qu'on ouvre déjà 30 fois par jour. Pas de nouvelle habitude à créer. Le share sheet iOS envoie directement au bot, c'est un geste qu'on fait déjà pour envoyer un lien à quelqu'un.
GPT pour le tri, pas pour la rédaction. Le rôle de GPT ici n'est pas de produire du contenu. C'est d'évaluer et structurer. Il lit un article de 3 000 mots et sort une synthèse de 4 lignes, un score et une action. C'est du traitement, pas de la génération. Le prompt est calibré pour être dense et factuel, pas pour faire joli.
Un score de pertinence plutôt qu'un système de tags. Les tags, personne ne les utilise au bout de deux semaines. Le score 1-5 est plus brutal mais plus utile : en un coup d'oeil, je sais si ça vaut la peine d'ouvrir la note. Ce qui change le comportement, c'est que quand tu vois qu'un article que tu pensais intéressant est scoré 2 ("AI slop, générique"), tu arrêtes de sauvegarder du bruit. Le filtre éduque.
Obsidian plutôt que Notion ou une base de données. Obsidian stocke tout en fichiers markdown locaux. Pas de vendor lock-in, pas de base propriétaire. Claude Code peut lire le vault directement. Si Obsidian disparaît demain, les fichiers restent.
L'intelligence du système
Quatre mécanismes au-delà de la capture brute :
Le score de pertinence (1-5). La grille est simple : 1 = spam ou bruit, 2 = contenu générique ou AI slop, 3 = intéressant mais pas urgent, 4 = signal fort pour mes sujets, 5 = référence à garder. Le score apparaît sur Telegram ([■■■■□]) et dans le frontmatter. Concrètement, je ne lis que les 4 et 5 en priorité. Les 3, je les parcours quand j'ai le temps. Les 1 et 2, je ne les ouvre pas.
Les wikilinks automatiques. Au démarrage, le daemon indexe 440+ notes du vault (projets, contacts, sujets). Chaque capture est scannée : si GPT mentionne un terme qui correspond à une note existante, il crée un wikilink automatique. Une capture sur les "agents" se retrouve liée à ma note [[Agents et sub-agents]]. L'index se rafraîchit toutes les heures.
La déduplication. Avant chaque écriture, le daemon vérifie si un fichier avec la même URL source: existe déjà. Si oui, il répond "Déjà capturé" et ne crée pas de doublon.
Le feedback sur Telegram. Chaque capture renvoie un message instantané. En 10 secondes, sans ouvrir Obsidian, je sais ce que le système a retenu :
Craig Mod raconte comment le code assisté par IA lui permet de construire des logiciels ultra-personnalisés en quelques jours.
Action : Identifier un workflow contraint et lancer un prototype IA-first.
→ Clipping/2026-04-04 21h51 - Software Bonkers.md
La boucle : Obsidian vers Claude Code
Les captures ne dorment pas dans le vault. Elles alimentent le reste du système :
- Les clippings scorés 4-5 nourrissent mon skill
content:plan, qui planifie les sujets d'articles et de posts - Les pensées deviennent des briefs pour de nouveaux projets
- Les tâches apparaissent dans les vues Obsidian et sont visibles au quotidien
- Claude Code a accès à tout le vault via les skills. Quand je lui demande "quels signaux intéressants cette semaine", il va lire les dernières captures
Le workflow de capture alimente tout le reste.
Ce que ça coûte
| Composant | Coût |
|---|---|
| Serveur maison (ou un VPS) | 0 € (ou ~3 €/mois) |
| API OpenAI (GPT-5.4) | ~2-3 €/mois pour ~200 captures |
| Bot Telegram | Gratuit |
| Obsidian | Gratuit (Sync en option) |
| Temps de mise en place | Un weekend |
Zéro app payante. Zéro abonnement SaaS. Le script fait ~400 lignes de Python, dont la moitié est du prompt GPT. Le reste, c'est de la plomberie Telegram et de l'écriture de fichiers.
Ce que ça change
Depuis que le système tourne, je ne perds plus rien. Le mois dernier : 180 captures, 23 scorées 4 ou 5. Sur ces 23, 4 sont devenues des articles ou des briefs. Le reste attend dans le vault, indexé, lié, prêt à resurgir quand le sujet revient.
La friction de la capture est tombée à zéro : un geste sur l'iPhone, c'est fait.
Le vrai gain, c'est pas le stockage. C'est que les captures alimentent directement le travail : un clipping scoré 5 devient un article, une pensée devient un brief, une tâche capturée en marchant est dans ma liste le lendemain matin.
Un système vivant
Ce genre de système ne se finit jamais. Il évolue avec l'usage, les nouvelles sources, les nouveaux besoins. C'est un outil qu'on entretient, qu'on ajuste, qu'on répare. Comme un atelier : les bons outils demandent de l'attention. Un prompt de scoring qui dérive, un wikilink qui matche trop large, un nouveau type de contenu à router. Ça fait partie du jeu. C'est aussi ce qui rend le truc intéressant : à chaque ajustement, le système devient un peu plus utile.
Voilà où il en est aujourd'hui et où il va :
Ce qui marche bien. Le pipeline article est solide : scrape fiable, synthèse dense, score utile. Le pipeline X aussi, avec le bonus des liens scrapés dans les tweets. Les pensées dictées sont la surprise : le fait que GPT reformule et cherche une connexion transforme un brain dump en note exploitable.
Ce qui est encore fragile. Instagram reste limité au lien + commentaire (pas d'API publique). Les wikilinks ont des faux positifs sur les mots courants. Le scoring est statique : GPT ne sait pas sur quoi je travaille cette semaine, donc un article sur les MCP peut être scoré 3 alors que j'en ai besoin maintenant.
Ce qui vient. Un digest hebdomadaire automatique qui compile les captures scorées 4-5. Un pipeline vidéo (YouTube) avec transcription et résumé. La possibilité de re-scorer une capture a posteriori. Et, à terme, ouvrir le script.