Matt Cutts intervient fréquemment en vidéo sur la chaîne Google Webmaster Help de Youtube pour répondre à des questions posées sur le forum de Google. Parmi les 300 vidéos, certaines répondent à des questions très concrètes concernant le référencement de site internet. Recueil d’une sélection de questions / réponses intéressantes en vidéo (en Anglais) accompagné de résumé et explications en Français.
Impact sur le référencement d’un temps de chargement élevé ?
La question initiale portait plus sur le ralentissement du chargement des pages du à des services tiers appelés par Javascript tels que Google Adsense ou tout autre script de régie publicitaire ou statistique. Matt Cutts a eu la bonne idée de dévier la réponse sur un sujet plus général : a quel point le temps de chargement d’une page la pénalise-t-elle pour son positionnement dans les SERP ?
Selon lui, ce critère, qui a fait beaucoup parler de lui depuis l’ajout d’une rubrique spécifique dans Google Webmaster Tools, n’est qu’un seul indicateur parmi les centaines utilisés dans l’algorithme pour déterminer le positionnement d’un site. Matt rappelle que l’usage de javascript asynchrone permet de s’affranchir des problèmes de délai de chargement dans ces cas. Il indique en effet que Google semble s’intéresse non pas au temps de chargement complet de la page mais le temps qui est nécessaire pour que l’utilistateur puisse « interragir avec la page », lire son contenu, naviguer.
Il faudrait donc en conclure :
- que les scripts lents devraient être placés après le contenu dans la page. Matt Cutts fini par dire que pour la plupart des situations, vous n’avez pas à vous en inquiéter. Traduction : seules les pages vraiment longues à charger peuvent poser problème.
- que le temps de chargement d’une page est un des critères et qu’il n’est pas forcément nécessaire de chercher à gagner la moindre milliseconde (mais bien sur, personne ne se plaindra que vous y arriviez !).
Impact de la profondeur des répertoires dans l’URL d’une page profonde ?
La question est posée à propos de deux type de structures d’URL :
www.exemple.com/motcle www.exemple.com/blabla/blabla/motcle
Matt Cutts commence par affirmer qu’il n’y a pas de différences en terme de transmission de PR entre ces deux modes de fonctionnement.
D’un point de vue ergonomique, Matt pense que pour l’utilisateur, les répertoires sont préférables et que leur nombre doit être limité à une structure logique. Ce point rejoint une autre de ses vidéos (voir la seconde vidéo) dans laquelle il explique que la question se pose plus d’un point de vue utilisateur que de l’algorithme. En effet, il considère que les visiteurs qui trouveraient une URL de type www.exemple.com/mot1-mot2-mot3-mot4-mot5 dans les résultats de recherche seront peut-être moins tentés de visiter le site car ils pourraient penser à du SPAM.
Matt Cutts rappelle également souvent deux choses :
- d’une part, une structure logique fait que l’utilisateur doit pouvoir supprimer la dernière partie de l’URL et tomber sur une page contenant les sous-rubriques. Ainsi, dans une URL de type www.exemple.com/blabla/blabla/motcle . L’utilisateur doit pouvoir supprimer « /motcle » et tomber donc sur une « page rubrique » sur www.exemple.com/blabla/blabla/
- d’autre part, qu’une bonne structure ne s’éloigne jamais trop de la page d’accueil (car il est dans ce cas plus facile pour le visiteur de s’y retrouver). Traduction : évitez de multiplier les niveaux de hiérarchie si possible.
Il est donc préférable de créer sa structure d’URL :
- basée sur des répertoires
- en petit nombre. Chaque sous division devant correspondre à une rubrique de votre site, par exemple, un site ayant une partie blog, un forum et une partie produits :
http://www.monsite.com/ http://www.monsite.com/blog/ (page d'accueil du blog) |__http://www.monsite.com/blog/article-numero-1 |__http://www.monsite.com/blog/article-numero-2 |__http://www.monsite.com/blog/article-numero-3 http://www.monsite.com/forum/ (page d'accueil du forum) |__http://www.monsite.com/forum/post-1500 |__http://www.monsite.com/forum/post-1501 http://www.monsite.com/produits/ (page d'accueil des produits) |__http://www.monsite.com/produits/famille-1/ | |__http://www.monsite.com/produits/famille-1/produit-1-1 | |__http://www.monsite.com/produits/famille-1/produit-1-2 |__http://www.monsite.com/produits/famille-2/ |__http://www.monsite.com/produits/famille-2/produit-2-1 |__http://www.monsite.com/produits/famille-2/produit-2-2
Quelle est l’importance de la fréquence de mise à jour du site ?
Les sites dont le contenu est rafraîchi plusieurs fois par jour sont « fantastiques pour les utilisateurs » qui y trouvent un contenu réellement dynamique. Toutefois, la qualité du contenu est bien plus importante que la fréquence de mise à jour. Matt Cutts rappelle qu’il ne poste pas sur son blog tous les jours, ni même parfois toutes les semaines.
Le discours de Matt Cutts est le suivant : la bonne fréquence est celle qui vous permet de publier fréquemment de nouveaux articles de qualité. Chaque nouveau contenu doit avoir une valeur ajoutée, apporter un plus. Il est bien plus pertinent de fonctionner ainsi que de faire un blog avec des articles fréquents mais vides d’intérêt. En clair, la fréquence de mise à jour est importante pour Google mais il ne se laissera pas berner avec de la mise à jour artificielle / avec de nombreux articles sans intérêt.
D’ailleurs, d’après vous, quel site doit obtenir plus de visibilité entre celui qui présente :
- un article par semaine, cet article obtenant 20 à 30 liens sur cette page (profonde donc), des tweet ainsi que des liens sur les profils publics Facebook.
- un article par jour et pas de lien ni de visibilité.
Comment augmenter la fréquence de crawl et d’indexation de mes pages ?
Sans commentaires particuliers : tout simplement en obtenant des liens de qualité sur ces pages.
Un ou plusieurs H1 par page ?
La question fait souvent débat sur les forums webmaster et SEO. D’un point de vue conformité aux règles établies par le W3C, il n’y a aucune contre-indication à utiliser plusieurs H1 sur une même page. Le titre d’un document est, en effet, déterminé par la balise <title> qui doit bien évidemment être unique. La balise <h1> n’est autre qu’une balise définissant un titre (une section) de premier niveau dans la page. D’un point de vue sémantique, sur une page longue, il n’est pas anormal de sous diviser la page en plusieurs sections importantes en utilisant les h1, puis les h2 pour les sous-divisions. Faites d’ailleurs l’essai, le validateur W3C ne vous fera aucune objection. La règle à retenir est : tant que la structuration a un sens logique, il n’y a aucun problème à utiliser plusieurs h1 par page, tout comme plusieurs h2.
Pour en venir au SEO, la règle est la même : tant que ça a du sens, donc tant que vous ne cherchez qu’à structurer votre document de manière logique, vous ne serez pas pénalisé. Toutefois, plusieurs bémols :
- il serait étonnant qu’un document soit si conséquent sur une seule page qu’il faille le diviser en plus de deux grandes sections. Matt Cutts précise qu’il n’est « pas si grave » d’avoir deux H1 sur une page.
- l’équipe anti-spam est visiblement très vigilente sur ce point (suite à des abus).
- les titres doivent être de vrais titres et pas des listes de mots clés. De même, un titre doit contenir une section d’autant plus conséquente qu’il est un titre élevé. Un h1 doit donc logiquement être suivi d’un grand contenu.
Conclusion : en cas de document de taille « normale » et ou en cas de doute, n’utilisez qu’un h1 par page, différent de celui utilisé en <title>. Dans le cas d’un document conséquent, il n’est pas anormal d’utiliser plusieurs h1. Et pour vous rassurer, certains de mes sites utilisent plusieurs h1 par page et n’ont jamais été pénalisés.
Quel est l’impact d’une indisponibilité du site pendant une journée ?
La réponse de Matt Cutts est prise à l’envers. Quelle image donnerait Google si les SERP présentaient des sites inaccessibles ? La réponse est donc logique, une petite interruption de quelques minutes ou heures ne va probablement pas modifier le positionnement. Une indisponibilité d’un jour ou deux n’est pas grave en soit pour le site : si des positions sont perdues temporairement pour préserver la qualité des SERP, elles seront réattribuées lorsque le site sera de nouveau accessible. Il semblerait que le robot essaie une première fois et fasse plusieurs tentatives par la suite pour connaitre l’avancement de l’indisponibilité.
Une interruption plus longue pourrait par contre avoir des conséquences néfastes sur le positionnement et l’indexation du site.
La commande « site:domaine.tld » est elle fiable ?
Un petit bonus pour la fin, pas important du tout mais amusant pour l’anecdote. La commande « site:domaine.tld » n’affiche que 3 chiffres de précision, le reste étant comblé par des zéro le cas échéant. Ainsi, les résultats seront de ce type :
- site:yahoo.fr : 4 270
- site:yahoo.com : 189 000 000 (!)
- site:microsoft.com : 41 600 000
- site:unjourunerecette.fr : 269
De plus, ces résultats sont en cache et ne représentent donc qu’un estimation vague à instant T non indiqué. Bref, une simple indication.
Abonnez-vous au flux flux RSS | You can leave a response, or trackback from your own site.
Merci pour ces explications claires et très intéressantes.