Quand Google traduit des mots clés en question…

Un exemple de comportement du moteur de recherche Google aux Etats-Unis, traduisant une suite de mots clés en question ‘intelligente’, nous montre la voie suivie depuis plusieurs années par les algorithmes utilisés au sein de la firme de Mountain View. Adaptation indispensable !…

On s’en rend compte chaque jour un peu plus : l’avenir de Google se trouve dans la sémantique, le vocal et le mobile. Le but des algorithmes utilisés par le moteur de recherche est de comprendre le sens de ce que demande l’internaute (sémantique), notamment lorsque cette demande est énoncée (vocal) au travers d’un smartphone (mobile), pour fournir à l’utilisateur le résultat qui fait le plus sens (sémantique encore) sur le Web.

Tous les algorithmes de Google s’adaptent depuis plusieurs années à la recherche vocale et conversationnelle, et notamment depuis l’avènement de Hummingbird et de son fils légitime Rankbrain.

On voit ces algorithmes évoluer chaque jour et le phénomène des « featured snippets » est loin d’être anodin sur cette voie, notamment pour être utilisé dans des outils comme Allo, assistant de maison que l’on peut commander par la voix. Voyez-vous les connexions possibles entre toutes ces technologies ?

Un nouvel exemple vient l’illustrer, détecté par le site Google Operating System, sur la version américaine du moteur de recherche : sur la requête [alcohol with the highest boiling], cette demande est en fait traduite en [Which alcohol has the highest boiling point?] (voir illustration ci-dessous).On pourrait penser que cette question est en fait extraite de la page proposée en « featured snippet » juste en-dessous. Mais non, elle ne s’y trouve pas. Il s’agit bien d’un « traduction vocale automatique sous forme de question » de la requête saisie. Le moteur vous propose d’ailleurs, en-dessous, de relancer votre requête sous cette forme interrogative.

Cela nous semble être la parfaite illustration de la voie suivie par Google depuis au moins 3 ans (et sans doute beaucoup plus longtemps) : le mobile est au centre de ses préoccupations et qui dit mobile dit recherche conversationnelle (20% des recherches sur mobile sont vocales actuellement chez Google, et 25% chez Bing). Autant nous y attendre et, donc, nous adapter au plus vite à ces nouveaux modes de fonctionnement !

google-requete-question
Google traduit une requête en question. Symptomatique de la voie qu’il emprunte de plus en plus… Source de l’image : Abondance

Source original:  Abondance.com

Référencement local : comment ça fonctionne ?

Une étude est sortie cet été, détaillant et analysant les différents critères de pertinence utilisés par Google pour son référencement local (pack local notamment). Rien de bien nouveau mais surtout beaucoup de confirmations…

Le site Local SEO Guide a publié au mois de juin dernier une étude sur le SEO local (notamment sur le « pack local« ), étudiant une centaine de critères de pertinence pour 30 000 sites web d’entreprise sur 3 000 recherches localisées.

En termes de variables ordinales (chiffrables, numériques), l’étude confirme les critères usuels de Google : qualité des liens (en majorité) et du contenu viennent en premier, ajoutés à la qualité de la page Google My Business (avis, photos, horaires d’ouverture, profil vérifié…) :

seolocalguide-ordinal-seo-local
Variables ordinales pour le SEO local sur Google… Source de l’image : Local SEO Guide

Pour ce qui est des variables catégorielles (non numériques ; exemple : réponse à une question sous la forme « oui/non »), on trouve le classement dans les liens naturels (en dehors du référencement local donc), la présence de mots clés dans le nom de l’établissement, le fait d’avoir un site mobile, etc. :

seolocalguide-ordinal-seo-local
Variables catégorielles pour le SEO local sur Google… Source de l’image : Local SEO Guide

Bref, l’étude ne nous apprend rien que l’on ne savait déjà : un bon référencement local se base sur des critères de SEO classiques (qualité de l’optimisation « on page », contenu de qualité, backlinks solides et… de qualité) doublé d’une page My Business remplie de la meilleure des façons possible (avis, photos, catégories bien choisies, etc.). Il restera ensuite des critères sur lesquels on ne peut pas beaucoup jouer, comme la distance géographique entre l’internaute (ou le mobinaute) et l’établissement… L’étude est disponible ici.

Source original:  Abondance.com

Le déploiement de Google Penguin 4.0 est terminé

Google a indiqué en fin de semaine dernière que le filtre Penguin 4.0, lancé officiellement le 23 septembre dernier, était désormais entièrement déployé et que les éventuelles pénalités dues au précédent lancement étaient traitées…

Le googler Gary Illyes l’a confirmé sur Twitter : le déploiement de Penguin 4.0, officiellement lancé le 23 septembre, était désormais considéré comme terminé par la firme de Mountain View.

Conséquence : si votre site avait été a priori impacté par la précédente version de Penguin (3.0 le 18 octobre 2014), il a dû retrouver des couleurs en voyant les éventuelles pénalités supprimées. Si rien ne s’est passé depuis trois semaines pour votre source d’information en termes de trafic ou de positionnement, deux possibilités : soit vous n’avez pas assez nettoyé votre profil de liens (et le fait que Penguin 4.0 soit désormais en temps réel devrait accélérer les procédures si vous « remettez un coup de collier » dans ce sens), soit Penguin n’était pour rien dans votre baisse de trafic. A vous d’analyser la situation au mieux si besoin est…

Source original:  Abondance.com

Goossips : Spécial Panda et Penguin

Quelques infos sur Google et son moteur de recherche, glanées ici et là de façon officieuse ces derniers jours, avec une somme d’informations sur Panda (un peu) et Penguin 4.0 (beaucoup). Au programme : dévalorisation ou déclassement d’un lien ou d’une page, prise en compte de la qualité des sites, présence d’algorithmes d’apprentissage automatique, toxicité éventuelle des liens émanant de sites internationaux et labellisation des backlinks…

Voici une petite compilation des informations fournies par les porte-paroles officiels de Google ces derniers jours sur différents réseaux informels (Twitter, Hangouts, Google+, forums, conférences, etc.). Donc « gossip » (rumeur) + Google = « Goosssip » ? La communication du moteur de recherche étant parfois plus ou moins sujette à caution, nous indiquons, dans les lignes ci-dessous, le niveau de confiance (taux de fiabilité) que nous accordons à l’information fournie par Google (de 1 à 3 étoiles, 3 étoiles représentant le taux de confiance maximal) – et non pas à la source qui en parle.

Sujet Information Taux  de  fiabilité Source
Dévalorisation et déclassement  Gary Illyes a indiqué sur Twitter que, si Penguin a pour vocation d’ignorer les liens de faible qualité (sans donner une note négative à la page qui les reçoit), Panda fonctionne différemment : il peut déclasser une page (ou un site) qui proposerait un contenu de faible qualité. L’un ignore, l’autre pénalise… Search Engine Roundtable et Search Engine Land
Qualité des sites  Gary Illyes a également indiqué que Penguin prenait en compte avant tout « la qualité des sites faisant les liens vers une page ». Cela pourrait contredire l’opinion courante dans le monde du SEO qui dit depuis longtemps que le filtre Penguin est conçu autour de l’analyse des ancres des liens plus spécifiquement. Simple effet de style de la part de Gary Illyes ? Search Engine Land.
Apprentissage automatique  Toujours Gary Illyes qui a indiqué sur Twitter que le filtre Penguin 4.0 ne prenait pas en compte des algorithmes de machine learning (apprentissage automatique). John Mueller, toujours sur Twitter, a pour sa part indiqué que si. Paul Haar, responsable du ranking chez Google, a conclu par un « c’est compliqué ». Bref, la communication Google dans toute sa splendeur… Search Engine Roundtable.
Liens internationaux  John Mueller a indiqué sur Twitter que l’analyse de la qualité d’un lien ne prenait pas en compte le fait que site créant le lien soit situé dans un autre pays ou proposé dans une autre langue que la page destinataire du lien : « the quality of links doesn’t depend on their nationality or the languages they speak. ». Search Engine Roundtable.
Labels  Gary Illyes a indiqué que l’équipe SQT (Search Quality Team), qui a pour vocation de mettre en place (ou pas) des actions manuelles, a accès à un système en interne dans lequel les liens qui pointent vers un site sont labellisés : lien en footer, ignoré par Penguin 4.0, désavoué, etc. Cela aide l’équipe « anti spam » de Google à avoir une idée plus précise et plus rapide du profil de lien d’une page pour d’éventuelles investigations plus approfondies. Cela nous semble tout à fait logique que ce type d’outil existe, effectivement. Search Engine Land.
Prêt au spam  Et, pour terminer, Gary Illyes a indiqué que les équipes d’ingénieurs de Google s’étaient préparées pour contrer des tentatives de spam tentant de manipuler le filtre Penguin 4.0 récemment lancé. L’histoire dira s’il avait raison ou tort ? Search Engine Roundtable.
logo-infos-google
Goossip (Infos Google).
Source de l’image : Google

Source original:  Abondance.com

Infographie : 1 an d’AMP en chiffres !

AMP est partout actuellement chez Google et son lancement date d’il y a un an. Pour fêter cette première bougie, le moteur de recherche nous propose une infographie reprenant quelques statistiques à la gloire de ce format d’affichage rapide des pages sur mobiles.

Notre infographie du vendredi est proposée aujourd’hui (une fois n’est pas coutume) par une petite PME locale nommée Google qui nous propose, à l’occasion du premier anniversaire du format AMP, quelques chiffres à son sujet : nombre de pages et de sites l’utilisant, nombre de développeurs, statistiques diverses et variées, etc. Bref, AMP est actuellement au centre des préoccupations de Google en ce moment et la firme de Mountain View nous le montre bien (cliquez sur l’image pour en obtenir une version agrandie) :

infographie-un-an-amp-google
Infographie : 1 an d’AMP en chiffres ! Source de l’image : Google

Source original:  Abondance.com

Google propose un nouveau validateur AMP

Google vient de lancer un nouveau validateur pour les pages au format AMP, indiquant les éventuelles erreurs rencontrées dans le code et proposant un bouton de partage des informations…

En juin dernier, Google avait annoncé la disponibilité d’un outil de validation pour les pages au format AMP. Hier, une nouvelle annonce a été faite pour un nouvel outil de test et validation AMP. Le système est simplissime : vous tapez une URL et l’outil affiche sur la droite le code HTML et sur la gauche le constat (valide ou pas) et les éventuelles erreurs rencontrées (voir illustration ci-dessous). Un clic sur une erreur spécifique indique quelles lignes du code est concernée. L’outil est également compatible mobile.

Un lien est également proposé pour afficher le contenu tel qu’il apparaîtra dans les résultats du moteur de recherche. Un bouton de partage permet d’envoyer des données à d’autres personnes (par exemple lors d’un projet de développement AMP entre plusieurs ingénieurs, chefs de projet ou ou développeurs). A vos tests !

outil-test-validation-amp
Outil de test et validation AMP d’une page web… Source de l’image : Abondance

Source original:  Abondance.com

Google va utiliser un index mobile spécifique (et prioritaire ?)

Google a confirmé cette semaine qu’un projet d’index spécifique au mobile était bien en cours de mise en place, sans donner beaucoup plus de détails. Difficile donc de se faire pour l’instant une idée précise sur la façon dont tout cela fonctionnera. Plus d’infos certainement d’ici quelques mois…

En 2015, Google indiquait qu’il n’utilisait pas d’index spécifique pour son moteur mobile, mais qu’il réfléchissait au sujet. Hypothèse réitérée au mois de juin dernier. Le googler zurichois Gary Illyes est allé un peu plus loin lors du salon Pubcon cette semaine à Las Vegas en indiquant qu’un projet d’index mobile était bien en cours au sein des équipes de développement du moteur de recherche. Pas de délais annoncés (seule la notion de « quelques mois » a été lachée par Gary, mais tous les « mois » n’ont pas le même nombre de jours chez Google ? )… A priori, l’index mobile sera alors prioritaire (pour le moteur mobile uniquement ou pour le desktop également ?), et l’index actuel sera utilisé de façon secondaire, sans qu’on ait, là non plus, plus de détails sur le mode de fonctionnement futur.

Bref, on en sait encore trop peu sur ce que sera ce double (ou pas ?) index et il faudra attendre encore « quelques mois » pour se faire une réelle opinion sur la façon dont tout cela fonctionnera. Wait and see…

google-spiders-g-o
Les spiders de Google construisent les index du moteur… Source de l’image : Chicago’D

Source original:  Abondance.com

La fonction de gestion des Sitelinks disparaît de la Search Console Google

Google vient d’annoncer que la fonction qui permettait de ‘rétrograder’ des liens de sites (Sitelinks) dans la Search Console vient d’être supprimée. Ce n’était certes pas l’outil le plus utilisé des anciens Webmaster Tools…

Si vous connaissez un tant soit peu le fonctionnement de Google, vous connaissez la notion de « Sitelinks » ou « Liens de sites », soit les liens internes d’un site qui s’affichent sous la forme de 2 colonnes de X liens (X pouvant aller de 1 à 6 dans certains cas, mais étant le plus souvent égal à 3). L’illustration ci-dessous montre les Sitelinks affichés par Google pour le site Abondance.com.

L’affichage de ces Sitelinks répond à un certain nombre de règles. Parmi celles-ci figure le fait qu’on ne peut pas indiquer à Google quels liens internes seront affichés dans la SERP. En revanche, jusqu’à maintenant, il existait une possibilité dans la Search Console pour indiquer au moteur un lien qu’on voulait voir disparaître, ou plutôt « rétrograder » selon les termes utilisés par le moteur (fonction proposée depuis 2007). Après un certain délai, Google le remplaçait par un autre. On peut désormais utiliser l’imparfait pour cela puisque Google vient d’annoncer sur Google+ que la fonctionnalité de la Search Console était supprimée.

Google explique que ses algorithmes sont aujourd’hui à même d’identifier les « bons liens » (selon le moteur, bien sûr) et que cette fonction n’était plus utile. On peut également imaginer que cette possibilité n’était pas celle qui était la plus utilisée de l’outil. Mais on notera également que les explications en ligne qui étaient fournies à son sujet étaient tout sauf claires, ce qui ne facilitait pas son usage… Bref, exit l’outil de « Demote Sitelinks »…

capture-decran-2016-10-14-a-14-44-13
Exemple de Sitelinks affichés sur Google pour le site Casaweb.ca

Source original:  Abondance.com

Ranxplorer, nouvel outil d’analyse de vos mots clés

L’équipe de Ranks.fr vient de lancer Ranxplorer, un nouvel outil permettant d’obtenir bon nombre d’informations sur 100 millions de requêtes, afin d’optimiser au mieux vos pages et votre stratégie SEO…

L’équipe de l’outil de positionnement Ranks.fr vient d’annoncer la disponibilité de Ranxplorer, un outil d’analyse de mots clés qui a pour ambition de marcher sur les plates bandes d’outils comme Semrush ou Yooda Insight. Les statistiques suivantes sont fournies par l’outil : 30 millions de sites, 100 millions de mots clés et 3 milliards de résultats sont ainsi explorés.

Les fonctionnalités fournies sont nombreuses pour une requête donnée : volume de recherche, saisonnalité, concurrence, SERP, mots clés et questions liées, champ lexical, analyses diverses, etc. Bref, un outil très complet que vous pourrez comparer avec ses principaux concurrents déjà en place depuis quelques temps. Les tarifs débutent à 19,90 € par mois (500 mots clés par audit, 500 audits par mois, 50 exports par mois) avec un eversion Premium à 69,90 € par mois (30.000 mots clés par audit, 5.000 audits par mois, 500 exports et appels API par mois, ce qui laisse un peu de marge ? ).

ranxplorer
Exemple de résultats fournis par l’outil Ranxplorer… Source de l’image : Abondance

Source original:  Abondance.com

Goossip : Annuaires, Negative SEO, Penguin, Crawl, Nouveaux Liens, Historique et Redirections 301

Quelques infos sur Google et son moteur de recherche, glanées ici et là de façon officieuse ces derniers jours, avec le poids des annuaires dans l’algorithme du moteur, Penguin, le negative SEO et l’augmentation de la fréquence de crawl sur un site, le délai de prise en compte d’un nouveau lien, l’Historique d’une page et d’un site dans l’algorithme et les nombreuses redirections 301 vers une page d’accueil. Grosse semaine…

Voici une petite compilation des informations fournies par les porte-paroles officiels de Google ces derniers jours sur différents réseaux informels (Twitter, Hangouts, Google+, forums, conférences, etc.). Donc « gossip » (rumeur) + Google = « Goosssip » ? La communication du moteur de recherche étant parfois plus ou moins sujette à caution, nous indiquons, dans les lignes ci-dessous, le niveau de confiance (taux de fiabilité) que nous accordons à l’information fournie par Google (de 1 à 3 étoiles, 3 étoiles représentant le taux de confiance maximal) – et non pas à la source qui en parle.

Sujet Information Taux  de  fiabilité Source
Annuaires  John Mueller et Gary Illyes ont tous les deux indiqué sur Twitter que les annuaires n’étaient pas une bonne voie à suivre pour créer des liens de qualité. En même temps, difficile d’imaginer une autre vision de leur part au sujet de ces outils, il est vrai totalement inutilisé par les internautes à l’heure actuelle (et qui ne valent leur existence donc qu’au seul SEO en règle générale)… Search Engine Roundtable
Negative SEO  Gary Illyes a indiqué sur Twitter qu’il n’avait jamais vu un exemple de negative sEO réussi et efficace. Selon lui, le filtre Penguin est totalement imperméable au negative SEO. Search Engine Roundtable.
Crawl et Penguin  John Mueller a indiqué qu’une augmentation du crawl d’un site par les robots de Google n’étaient en rien le signe de la prise en compte du site par Penguin (ou Panda). Ces filtres algorithmiques (qu’ils soient ou pas en temps réel) n’affectent pas la fréquence et d’exploration d’un site par les robots. TheSemPost.
Fréquence de crawl  John Mueller a indiqué dans ce même hangout que si Googlebot ne visite pas souvent un site et s’il n’explore pas l’arborescence de façon profonde, alors ceci est sûrement un signe que la source d’information est considérée comme de faible qualité par le moteur. TheSemPost.
Prise en compte d’un nouveau lien  John Mueller a expliqué dans un hangout que, lorsqu’un nouveau backlink est identifié vers une page, il est pris en compte quasiment immédiatement dans l’algorithme, surtout si l’URL de destination est déjà connue du moteur. TheSemPost.
Pénalités Penguin  De nombreux webmasters ont constaté que certains sites, qui avaient été pénalisés dans le passé par Penguin, ont vu ces pénalités levées depuis le lancement de Penguin 4.0. Gary Illyes l’a confirmé sur Twitter, indiquant que ces prises en compte étaient en phase finale et que tout devrait être prochainement bouclé. Search Engine Roundtable.
Historique  John Mueller a expliqué, dans un des hangouts dans lesquels il intervient souvent, que certains algorithmes de Google prennent en compte l’historique d’un site et ses changements dans le temps. Mais il n’a pas indiqué quel type de changement était pris en compte (contenu ? code ? liens ?). TheSemPost.
Redirections 301  John Mueller, enfin, a indiqué que lorsque de trop nombreuses redirections 301 étaient effectuées (par exemple lors d’une refonte) vers la page d’accueil d’un site, ces redirections étaient considérées comme des « soft 404 » (page ayant le fonctionnement d’une erreur 404 mais sans en renvoyer le code). Le PageRank ne sera donc pas transmis à la homepage. Search Engine Roundtable.
logo-infos-google
Goossip (Infos Google).
Source de l’image : Google

Source original:  Abondance.com