Les 3 changements techniques qui ont boosté mes citations IA
3 changements techniques qui exposent votre contenu aux IA
Quand j'ai débuté le projet Astro + Convex, j'ai identifié 3 changements critiques pour être visible dans les réponses IA. Ce ne sont pas des optimisations mineures. Ce sont des architecture shifts.
1. Ajouter llms.txt : le sitemap des IA
Les crawlers IA (GPTBot, ClaudeBot, PerplexityBot) cherchent un fichier llms.txt à la racine de votre domaine, exactement comme robots.txt. Ce fichier liste vos pages citable, vos politiques, votre autorité.
Structure d'un llms.txt réel (byfloo.com)
Title: Byfloo - Agence de Generative Engine Optimization
Description: Expertise GEO pour local businesses
Pages-to-Crawl:
- https://byfloo.com/ → Accueil
- https://byfloo.com/articles/ → Blog GEO
- https://byfloo.com/case-studies/ → Études de cas
Authority: Patrick Faust, GEO Specialist depuis 2004
Last-Updated: 2026-03-22
Language: fr-FR, en-US Les avantages immédiats : 1) Les IA indexent vos pages plus vite 2) Vous contrôlez ce qui est citées 3) Vous signalez explicitement que vous cherchez à être cité
En savoir plus : consultez la spécification officielle de llms.txt pour la syntaxe exacte et les bonnes pratiques.
2. JSON-LD : structurer vos données pour les IA
JSON-LD est un format qui transforme votre contenu HTML en données structurées. Au lieu de dire "voici un article", vous dites "voici un article écrit par Patrick Faust, publié le 2026-03-15, sur le sujet GEO, situé en Slovénie.") Les IA parsent le JSON-LD, pas la prose HTML.
Avant (sans JSON-LD)
Votre article e-Slovénie était du HTML brut. ChatGPT le lisait, mais ne savait pas : qui l'a écrit, quand il a été publié, quelle est la géolocalisation exacte. Les IA devaient deviner.
Après (avec JSON-LD)
{
"@context": "https://schema.org",
"@type": "Article",
"headline": "Les meilleurs restaurants de Ljubljana",
"author": {
"@type": "Person",
"name": "Patrick Faust",
"url": "https://byfloo.com/a-propos"
},
"datePublished": "2026-03-15",
"keywords": "Ljubljana, restaurants, slovène",
"location": {
"@type": "Place",
"name": "Ljubljana",
"geo": { "@type": "GeoCoordinates", "latitude": 46.0569, "longitude": 14.5058 }
}
} Résultat : quand ChatGPT voit ce JSON-LD, il sait que cet article : 1) Parle de Ljubljana 2) Est écrit par un expert 3) Est récent 4) Est situé géographiquement. Il y a 10x plus de contexte.
Les types JSON-LD essentiels pour le local business
- Article : articles de blog, posts, études
- LocalBusiness : votre entreprise, horaires, adresse, contact
- Restaurant : menu, prix, openingHours, réservations
- Organization : la structure de votre société, équipe, fondateur
- Person : expertise personnelle (si vous êtes le fondateur/expert)
Vous pouvez valider vos JSON-LD avec l'outil de test Google (même si les IA ne le traversent pas, c'est un bon sanity check).
3. robots.txt spécifique pour les IA + contrôle du SEO traditionnel
Contrairement à Google, les crawlers IA n'ont pas de limite de crawl. Mais vous voulez quand même les inviter explicitement. Voici le robots.txt que j'ai mis en place :
# Section 1 : crawlers IA (autorisé + encouragé)
User-agent: GPTBot
Allow: /
Crawl-delay: 0
User-agent: CCBot
Allow: /
Crawl-delay: 0
User-agent: ClaudeBot
Allow: /
Crawl-delay: 0
User-agent: PerplexityBot
Allow: /
Crawl-delay: 0
# Section 2 : Google Search (SEO classique)
User-agent: Googlebot
Allow: /
Crawl-delay: 1
Disallow: /admin/
Disallow: /draft/
# Section 3 : tout le monde d'autre (SEO négative)
User-agent: *
Disallow: / Cela signifie : « Les IA, vous êtes les bienvenues, crawlez sans limite. Google, allez-y mais respectez mon crawl budget. Tout le monde d'autre, débrouillez-vous. »
Les crawlers IA à lister (2026)
- GPTBot (OpenAI, ChatGPT) - user-agent: GPTBot
- ClaudeBot (Anthropic, Claude) - user-agent: Claude-Web
- CCBot (Common Crawl) - user-agent: CCBot
- PerplexityBot (Perplexity, réponses IA) - user-agent: PerplexityBot
- Googlebot-Extended (Google Gemini + Bard) - user-agent: Googlebot-Extended
Le résumé : checklist de déploiement
Pour exposer votre site aux IA, vous avez besoin de :
- ✓ llms.txt : créé, à la racine de votre domaine
- ✓ JSON-LD Article : sur chaque article de blog
- ✓ JSON-LD LocalBusiness : sur votre page d'accueil ou contact
- ✓ robots.txt : explicitement allow pour les IA crawlers
- ✓ Open Graph / Twitter Card : pour les réseaux sociaux et les IA qui prévisualisent
- ✓ Sitemap dynamique : XML sitemap que vous mettez à jour automatiquement
Si l'un de ces éléments manque, vous laissez des citations sur la table. Je recommande une audit technique dès cette semaine.
Vous voulez être trouvé comme ça ?
Testez votre visibilité sur Google et les IA - c'est gratuit.
Tester ma visibilitéPatrick Faust
Expert GEO et développeur web, expatrié français en Slovénie depuis 2004. Fondateur de e-Slovénie.com (327 citations Copilot) et Plat du Jour.
LinkedIn →