On s’est tous posé un jour une question existentielle (ou pas) sur le SEO ! Alors le plus simple c’est de les recenser et de noter, une bonne fois pour toute, les réponses !
Petite liste donc de questions-réponses que je me suis posé ou qu’on m’a posé en SEO !

Le trafic Google Image, ou remonte-t-il dans Google Analytics ?

Pas facile de répondre, puisque Google a changé son système (bloc gris foncé au clic sur l'image dans Google Image). Le trafic provenant de Google Image est déporté sur le canal Referral (images.google.com / referral)

Comment être sûr que les TracksEvents remontent bien dans Google Analytics ?

Rien de plus simple en faite :

  • Aller sur la page contenant les marqueurs
  • F12
  • Network
  • Faire un filtre sur Collect (dans le tri "All")
  • Déclencher un événement en cliquant sur un élément marqué
  • S'assurer que les valeurs ec: / ea: / el: remontent bien avec les valeurs prédéfinies dans le plan de marquage
Quel est le système de pagination idéal pour le SEO ?

Pas facile de répondre puisque chacun a plus ou moins son avis sur la question... Mais voici ce qu'il en ressort en général :

  • Peu importe la manière dont est gérée la pagination dans les URLs (paramètres, répertoires etc...). Chaque page doit quand même avoir sa propre URL
  • Utiliser les balises rel="next" / rel="prev" pour spécifier à Google le système de pagination
  • Pas de balises Canonical vers la page 1
  • Ne pas placer de Noindex - Nofollow sur les page paginée car Google n'ira plus les voir avec le temps

Je prends des risques avec cette réponse ^^ Mais c'est mon avis !

Comment transformer un flux Twitter en Flux RSS ?

Petite astuce rapide, pratique pour la veille SEO sur Twitter !

Si vous souhaitez transformer une recherche Twitter en flux RSS vous pouvez utiliser l'outil Twitrss.me.

L'outil fonctionne aussi avec un compte Twitter. Vous mettez l'identifiant du compte (@xxxxxxx) et l'outil transforme ça en lux RSS !

Pourquoi mon site ne remonte pas dans Google quand je fais site: ?

Plusieurs réponses possibles. Il n'en existe pas une précisemment malheureusement. Il est possible toutefois d'aller vérifier quelques points prioritaires :

  • Vérifier que les pages ne possèdent pas de Noindex dans leur section HEAD
  • Vérifier que les entêtes HTTP ne renvoient pas de X-Robots-Tag: Noindex
  • Vérifier que le fichier robots.txt ne bloque pas le passage de Google
  • Vérifier que les pages internes du site ne possèdent pas de balise canonical mal implémentées (de type canonical vers la page d'accueil sur toutes les pages)
  • Vérifier que le site est lisible pour Google (désactiver les Javascripts, tester l'exploration sur la Search Console...)
  • Parfois, il suffit tout simplement de laisser agir le temps. Google a aussi ses limites !

Si vous ne trouvez pas votre bonheur dans ces propositions... Adressez-vous à un pro !

Comment savoir si Google accède bien au site ?

En mettant une URL dans les zones de textes de Google Traduction, vous pourrez afficher une page web traduite complète. De ce fait, vous utiliser une entitée Google pour scanner une page. Celapeut être pratique pour détecter des éventuels cloakings de pages.

Il y a pas très longtemps, Google Adwords m'indiquait qu'il n'accédait pas à certaines de mes pages. Curieux, j'ai tchecké pas mal d'éléments du site (robots.txt, noindex, X Robots-Tag...), mais le problème venait d'ailleurs. En fait, c'est le serveur qui faisait obstacle. Pour le détecter, j'ai donc utilisé Google traduction pour essayer de simuler un passage d'une entitée de Google.

Comment tester un robots.txt ?

Rien de plus simple, vous pouvez utiliser Screaming Frog ou Google Search Console.

Google Search Console :

  • Allez sur une propriété d'un site
  • Onglet Exploration
  • Onglet "Outil de test du fichier robots.txt"
  • Copiez-collez votre robots.txt et vous pourrez ensuite tester l'accessibilité des pages pour Google

Screaming Frog

  • Déroulez le menu "Configuration"
  • Rendez-vous dans "Robots.txt" puis "Custom"
  • Cliquez sur "Add" en bas à gauche
  • Copiez-collez l'url de votre robots.txt puis "OK"
  • Votre robots.txt s'affiche
  • Vous pouvez maintenant le modifier comme vous le souhaitez
  • Testez vos URLs avec le champs "Test" en bas de la fenêtre
Comment gérer la pagination en SEO ?

⚠ Gros débat ! ⚠ Voilà ce que j'ai tendance à recommander : 

  1. Bien différencier les URLs issus de la pagination via des répertoire ou paramètres, peu importe
  2. Utiliser les balises rel=next et rel=prev pour indiquer à Google un système de pagination
  3. Intégrer la balise canonical, reprenant l'URL de la page consultée. Si la page 3 est consultée, reprendre en canonical l'URL de la page 3
  4. Bien différencier les Titles - Meta Description - H1 des pages, via des mentions page 1, page 2 etc...
  5. Retirer les blocs de textes sur les URLs page 2, page 3 etc... et ne le conserver que sur la page 1
  6. Ouvrir toute la pagination à l'indexation (pas de noindex) et ne pas utiliser de mentions nofollow, ni sur les pages, ni sur les liens renvoyant vers les URLs paginées
  7. Utiliser un système de pagination permettant d'accéder à n'importe quelle page en 2 ou 3 clic (système de type unité, dizaine, centaine, faisant apparaître les possibilité 1 à 9 via un clic)

Normalement la pagination est plutôt bien gérée. D'autres ne sont pas du même avis, et obtiennent également de bons résultats. je pense qu'il n'y pas de science exact, l'essentiel est juste de présenter quelque chose de propre et cohérent.