Salut à tous,
Je me permets de solliciter vos retours d'expérience sur un problème technique d'indexation que je rencontre.
Contexte: Je gère un site e-commerce de dropshipping Amazon que j'ai codé from scratch (Next.js/Node). Structure MVC propre, tests unitaires à 97% de couverture, temps de chargement optimisé (94/100 sur PageSpeed mobile).
Problématique: Malgré cette architecture technique relativement saine, j'observe des délais d'indexation excessifs sur les nouvelles pages produits. Temps moyen avant apparition dans l'index: 12 jours pour Google, 5 pour Bing, et semble très variable pour les crawlers IA.
J'ai déjà implémenté:
Sitemap XML dynamique avec timestamps précis
Prérendu SSR côté serveur
Optimisé robots.txt avec regex précis
Attributs canoniques sur les URL dupliquées
Hook post-déploiement pour ping les endpoints d'indexation
Ce qui m'interpelle: certains concurrents avec des sites techniquement inférieurs (WordPress basiques avec plugins lourds) voient leurs nouvelles pages indexées en 48h.
Je recherche des méthodes d'optimisation d'indexation:
Quantifiables
Reproductibles
Non-spammy (pas de backlinks artificiels ou autres pratiques grey-hat)
Idéalement, j'aimerais mettre en place une batterie de tests A/B avec mesures précises pour identifier quels paramètres influencent réellement la vitesse d'indexation dans ce contexte spécifique de dropshipping.
Merci d'avance pour vos retours.
Hugo
P.S.: Si quelqu'un a des données récentes sur les headers HTTP spécifiques reconnus par les crawlers IA (Claude, GPT), je suis preneur.