Sommaire

  1. Ce qui s’est passé exactement
  2. Le seul vrai travail : le prompt
  3. Le pipeline : humain vs machine
  4. La stack technique
  5. Les chiffres bruts
  6. L’exemple live
  7. Ce que ça change vraiment
  8. FAQ

Je tape deux mots dans mon terminal Claude Code installé sur mon ordinateur en local. Pas une commande informatique. Pas un login. Juste : “content”. Puis “reflex ia”.

Cinq minutes plus tard, un article de 2 100 mots est en ligne. Audité sur quatre dimensions pour être optimisé avec toutes les règles pour espérer plaire à Google. Deux graphiques vectoriels intégrés directement dans la page (SVG inline), générés selon la palette de couleurs exacte du site. Une version brouillon envoyée sur mon Gmail pour relecture sur téléphone. Tout ça sans avoir ouvert WordPress, Notion, Google Docs, ou n’importe quel des outils classiques pour publier…pas une seule fois.

Ce n’était pas un test. C’était le premier exemple live de mon pipeline de production de contenu pour Reflex IA. Voilà exactement comment ça fonctionne


Ce qui s’est passé exactement

Le pipeline CONTENT_ENGINE existe depuis le 24 avril 2026. Je l’ai construit pour produire du contenu optimisé sans friction — le genre de système où l’intelligence va dans la stratégie, pas dans la manipulation d’interfaces.

Le 26 avril, j’ai voulu tester pour de vrai. Pas un article de démo. Un article réel, sur un sujet réel, publié sur le vrai site. Le sujet : un comparatif de sept hébergeurs web (OVHcloud, Hostinger, o2switch, GoDaddy, PlanetHoster, Infomaniak, LWS).

Résultat : du prompt initial au lien live, cinq minutes. Et le résultat est vraiment à la hauteur de ce que j’attendais : contenu, structure, forme, liens internes, SEO…vraiment satistait! et tout ça en 5 minutres chrono. Mon systeme fonctionne, il rend mes objectifs réaslisables!

Lire l’article publié → OVHcloud vs Hostinger vs o2switch — comparatif 2026, 7 hébergeurs, verdict par profil.


Le seul vrai travail : “le prompt sytème”

la seule chose que j’ai à faire est de nourir le systeme avec un contenu assez exaustif et détaillé qui couvre tous les aspects du sujet

J’utilise pour cela DeepSeek R1 (modèle de raisonnement Reflexion, mode Expert) avec un prompt un peu comme je pense pour une analyse complète : fonctionnalités indispensables par catégorie, analyse qualitative et quantitative des avis utilisateurs Trustpilot, comparatif des prix affichés vs réels, les couts cachés, des cas d’usage par métier, prérequis techniques, stack, et facilité de prise en main,…

Le prompt fait 400 mots. Il m’a pris dix minutes.

DeepSeek a travaillé en mode réflexion pendant plusieurs minutes, puis livré un fichier de recherche structuré de plusieurs milliers de mots : tableaux comparatifs, données Trustpilot, prix réels, parts de marché, cas d’usage détaillés. J’ai sauvegardé ce fichier au format texte structuré (.md, Markdown) et je l’ai déposé dans un seul dossier : CONTENT_ENGINE/INPUT/.

C’est là que le systeme IA pour produire le contenu prend le relais.


Le systeme IA : humain vs machine

Sur onze étapes du processus, j’ai eu trois micro-interventions humaines après l’écriture du prompt. Voici le détail exact.

Pipeline de production — humain vs automatique Intervention humaine Automatique ① HUMAIN · ~10 min Écriture du prompt DeepSeek R1 — 400 mots ② AUTO · ~3 min DeepSeek R1 Reflection Recherche + fichier structuré .md ③ HUMAIN · ~5 sec Dépôt dans INPUT/ CONTENT_ENGINE/INPUT/ → déplacer le fichier ④ HUMAIN · ~5 sec "content" + "reflex ia" 2 mots dans le terminal Claude Code ⑤ AUTO · ~15 sec Lecture 5 fichiers contexte CERVEAU · SKILL · COMPARE · AUDIT · STYLE ⑥ AUTO · ~90 sec Production PASSE 1 2 100 mots + 2 SVG inline charte Reflex IA ⑦ AUTO · ~30 sec Audit PASSE 2 SEO · GEO · Lisibilité · Anti-IA ⑧ AUTO · ~20 sec Corrections PASSE 3 Tous les items ❌ et ⚠️ corrigés ⑨ AUTO · ~10 sec Email brouillon Gmail HTML mobile-ready via Gmail MCP ⑩ HUMAIN · ~3 sec "deploie" 1 mot dans le terminal ⑪ AUTO · 40 sec git push → Cloudflare rebuild Article live sur reflex-ia.pages.dev 4 étapes humaines — prompt (10 min) + 3 × micro-gestes (~13 sec) 7 étapes automatiques — ~5 min 10 sec
Sur 11 étapes, seules 4 impliquent une action humaine. Les 3 dernières prennent moins de 15 secondes au total. L'essentiel du travail humain est concentré sur le prompt initial — c'est là que l'intelligence métier s'applique.

La stack technique

Chaque outil de la chaîne a un rôle précis. Aucun ne se substitue à un autre.

OutilRôle dans le pipelineÉtape
DeepSeek R1 ReflectionRecherche approfondie, mode raisonnement
CONTENT_ENGINESystème de fichiers + moteur de production (CERVEAU / SKILL / FORMAT / AUDIT / STYLE)⑤→⑧
Claude Code (Sonnet 4.6)Orchestration complète du pipeline④→⑩
Astro 4 + Content CollectionsSite statique, fichiers .md → pages HTML
GitHubVersionnement + trigger de déploiement
Cloudflare PagesDéploiement automatique sur git push
Gmail MCPEnvoi du brouillon HTML mobile

DeepSeek R1 Reflection — Une IA de recherche accessible gratuitement sur son interface web. On lui soumet un sujet et un angle de travail. Elle passe plusieurs minutes à raisonner, puis livre un fichier de recherche structuré : tableaux, données chiffrées, cas d’usage. C’est l’équivalent d’un documentaliste qui remet sa synthèse avant que la rédaction commence.

CONTENT_ENGINE — C’est le cerveau du pipeline. Ce n’est pas un logiciel — c’est un système de fichiers en format Markdown qui définit le rôle, l’expertise à adopter, les directives et le processus pour produire le contenu. Un fichier de configuration par projet (CERVEAU.md) décrit l’audience, la palette visuelle et les règles éditoriales. Des fichiers de production (SKILL, COMPARE, AUDIT, STYLE) définissent comment écrire, structurer et vérifier chaque article. Claude Code lit ces fichiers et les applique à la lettre.

Claude Code (Sonnet 4.6) — L’assistant IA qui fait tourner l’ensemble du pipeline depuis la ligne de commande (terminal). Il lit les fichiers de configuration, produit l’article, lance l’audit, corrige les erreurs détectées, prépare l’email et déclenche le déploiement — sans interface graphique, sans clic, sans aucun menu à naviguer.

Astro 4 + Content Collections — Astro est un générateur de site statique. On lui donne des fichiers texte Markdown (.md) ; il les transforme en pages web prêtes à afficher dans un navigateur. Content Collections est son système intégré pour organiser et valider ces fichiers. Résultat : un site ultra-rapide, sans base de données, sans serveur à maintenir.

GitHub — Le coffre-fort du code. Chaque modification du site est sauvegardée ici avec son historique complet. C’est aussi lui qui déclenche le déploiement automatique : dès qu’on envoie une mise à jour vers le dépôt (git push), Cloudflare Pages le détecte et reconstruit le site.

Cloudflare Pages — L’hébergeur du site, gratuit jusqu’à 500 déploiements par mois. Il surveille GitHub en permanence. Dès qu’une modification arrive, il reconstruit l’intégralité du site en moins d’une minute et le met en ligne sur son réseau mondial. Aucune intervention manuelle.

Gmail MCP — MCP (Model Context Protocol) est le protocole qui permet à Claude Code de communiquer avec des applications extérieures. Gmail MCP lui donne accès à la boîte mail. Concrètement : Claude Code crée un brouillon d’email formaté pour téléphone et l’envoie directement dans Gmail — sans ouvrir Gmail, sans clic, sans copier-coller.

Lire comment fonctionne le CONTENT_ENGINE → Architecture, fichiers, règles de production — la documentation complète.


Les chiffres bruts

Métriques — premier article live Reflex IA (26-04-2026) 5 min prompt → live (hors 10 min prompt) 2 100 mots produits + 2 SVG inline 9/10 SEO on-page 6/6 GEO · 6/6 lisib. ~18k tokens contexte + ~3k tokens output 40 sec git push → live Cloudflare Pages rebuild Mots humains tapés après le prompt : 3 ("content" · "reflex ia" · "deploie")
De la source au déploiement : 5 minutes, 2 100 mots, 9/10 SEO. La ligne du bas est celle qui compte : 3 mots humains après le prompt pour déclencher l'ensemble de la chaîne.

Cinq minutes entre le terminal et le lien en ligne — hors les 10 minutes de réflexion du prompt. 2 100 mots produits : un comparatif complet, 7 hébergeurs, tableau, verdict par profil, FAQ en 5 questions. Un rédacteur y passerait 2 à 3 heures. L’optimisation pour Google (SEO on-page) ressort à 9/10 : 10 critères vérifiés automatiquement — présence du mot-clé dans le titre principal (H1) et dans les 100 premiers mots, densité entre 1 et 2 %, description affichée dans les résultats de recherche (meta description) de moins de 155 caractères, liens de navigation dans la page (ancres) fonctionnels, hiérarchie des titres cohérente (H1/H2/H3). L’optimisation pour les IA citantes comme ChatGPT ou Perplexity (GEO) atteint 6/6 : chaque section commence par une réponse directe, chaque donnée est attribuée à une source, chaque paragraphe se comprend hors contexte — c’est ce qui permet à ces outils de citer l’article dans leurs réponses. Les ~18 000 unités de traitement du texte (tokens) de contexte correspondent aux 5 fichiers de configuration plus le fichier source DeepSeek, soit environ 70 pages A4 ingérées avant d’écrire une seule ligne. Le déploiement : 40 secondes entre l’envoi vers le dépôt de code (git push) et l’article visible en ligne.


L’exemple live

L’article produit : “OVHcloud vs Hostinger vs o2switch : quel hébergeur web choisir en 2026 ?”

Sept hébergeurs comparés sur cinq critères : temps de réponse du serveur (TTFB) mesuré, prix d’entrée vs renouvellement, qualité du support, interface, profil d’usage. Verdict par profil d’utilisateur. FAQ en cinq questions, liens de navigation dans la page (ancres) fonctionnels, tableau comparatif en tête d’article.

La source de l’article — le fichier de recherche DeepSeek — contenait des données brutes Trustpilot, des tableaux de prix, des notes sectorielles, des cas d’usage par métier. Le pipeline a :

  • Réorganisé selon la structure COMPARE.md (intro → tableau rapide → critères → pour-qui → verdict → FAQ)
  • Généré deux graphiques vectoriels intégrés directement dans la page (SVG inline) selon la palette de couleurs exacte de Reflex IA
  • Vérifié la densité du mot-clé, les liens de navigation internes (ancres), la description affichée dans Google (meta description)
  • Corrigé deux occurrences de voix passive détectées à l’audit
  • Envoyé la version adaptée aux téléphones sur Gmail pour relecture

Lire l’article → 7 hébergeurs · 2 100 mots · verdict tranché · en ligne depuis le 26-04-2026


Ce que ça change vraiment

Je n’aurais pas publié cet article sans ce syteme. Pas par manque de compétence — par manque de temps et de connaissances techniques pour intervenir manuellement dans tout ce processus sans comptez la charge mentale de gérer tout cela pour 50 articles…impossible!

Construire un comparatif de sept hébergeurs en partant de zéro demande : une journée de recherche, deux heures de rédaction, une heure de mise en forme, trente minutes de vérification SEO, un déploiement manuel. Cinq à huit heures en tout. Avec ce sytème IA, la recherche reste humaine (le prompt DeepSeek), le reste devient un processus.

La vraie limite ? La qualité du prompt initial. Si la recherche DeepSeek est superficielle, l’article sera superficiel. Si le CERVEAU.md du projet est mal défini, la charte et le ton seront approximatifs. Le pipeline amplifie la qualité de l’intention — il ne la remplace pas.


FAQ

Peut-on utiliser ce pipeline sans coder ?

Pas dans sa forme actuelle. Il faut être à l’aise avec une ligne de commande (terminal), des fichiers texte structurés (Markdown), et les bases de la gestion de versions (Git). Rien de très technique — pas de code à écrire — mais une familiarité minimale avec le terminal est nécessaire. Une version plus accessible (interface web ou outil d’automatisation no-code comme n8n) est sur la liste des prochaines évolutions.

DeepSeek R1 est-il indispensable pour la phase de recherche ?

Non. N’importe quel modèle capable de produire une recherche structurée convient : GPT-4o, Gemini Pro, Claude lui-même. DeepSeek R1 Reflection a été choisi pour ce test pour sa capacité de raisonnement sur des sujets factuels complexes et sa gratuité d’accès. Le choix du modèle de recherche est découplé du reste du pipeline.

L’article est-il vraiment optimisé SEO ou juste “assez bon” ?

L’audit automatique mesure des critères factuels vérifiables : présence du mot-clé dans le titre principal (H1), dans les 100 premiers mots, densité entre 1 et 2 %, description affichée dans Google (meta description) de 155 caractères maximum, liens de navigation internes (ancres) fonctionnels, hiérarchie des titres cohérente (H1/H2/H3). Ce n’est pas une garantie de classement — c’est une garantie que les bases techniques sont présentes. Le reste dépend de la qualité du contenu, de l’autorité du domaine, et des liens entrants depuis d’autres sites (backlinks).

Combien coûte ce pipeline à faire tourner ?

Le coût principal est Claude Code (abonnement mensuel). DeepSeek R1 est gratuit sur son interface web. Cloudflare Pages est gratuit jusqu’à 500 déploiements par mois. GitHub est gratuit. Le coût par article est donc quasi nul une fois le pipeline en place.

Est-ce que tu vas documenter comment construire ce pipeline ?

Oui — c’est l’objet de la série Build in public sur ce site. Les prochains articles couvriront : l’architecture CONTENT_ENGINE détaillée, le CERVEAU.md et comment l’écrire, la construction des fichiers MOTEUR, et comment adapter le pipeline à d’autres types de sites. La liste complète est dans le journal de bord.

← Article précédent
Mon système IA pour automatiser à 99% ma production de contenu sans jamais sacrifier la qualité