L'ajout de mots-clés "Near Me" augmente-t-il le trafic pour le référencement local ?
Publié: 2022-05-14Le plus souvent, les clients viennent nous voir et nous posent des questions sur nos méthodes et nos processus, en particulier lorsqu'ils ont besoin d'aide pour le référencement local. Fait intéressant, beaucoup de nos clients exigeants ont fait leurs devoirs et connaissent une chose ou deux sur le marketing en ligne et le référencement. Cependant, certains ont également des idées qui proviennent d'anciennes pratiques de référencement qui fonctionnaient au début du référencement, ou qui ont été démystifiées avec l'utilisation de données objectives.
Ne vous méprenez pas, bon nombre de ces "erreurs" proviennent de conclusions très raisonnables qui seraient vraies si les moteurs de recherche étaient des systèmes statiques fonctionnant dans le vide. Mais ils n'existent pas dans le vide et, en réalité, ils ont tendance à réagir aux besoins des utilisateurs à certains moments.
Cet article couvrira certaines de ces erreurs et idées fausses et clarifiera leurs origines.
Recherches centrées sur les mots clés
Le désir d'apparaître au premier rang des annuaires d'entreprises est une vieille aspiration des spécialistes du marketing avant même l'apparition d'Internet. Les entreprises trouveraient des moyens créatifs de faire placer leur numéro ou leur annonce en premier dans les annuaires téléphoniques ou les pages jaunes.
Changer le nom de votre magasin pour atterrir plus haut dans les répertoires alphabétiques était l'un des mouvements les plus anciens. Beaucoup changeraient leur nom en "AAA Plumbing" ou "123Music" afin d'obtenir
en avance sur leurs concurrents et être parmi les premières entreprises sur lesquelles les yeux des gens se poseraient lorsqu'ils parcourraient la catégorie appropriée.
Plus tard, lorsque les annuaires Internet ont vu le jour, des recherches ciblées ont été rendues possibles. Cependant, les gens ont continué à trouver des moyens créatifs d'être au top des résultats de recherche en achetant des noms de domaine courts ou en "optimisant" le contenu de leur site Web.
La montée du référencement Black Hat
L'une des plus anciennes légendes du SEO est qu'un groupe de rock a inventé le Black Hat SEO.
Le groupe légendaire de San Francisco, Jefferson Starship, était à la retraite depuis 7 ans lorsque Paul Kanter, le chanteur et bassiste, a décidé de réunir le groupe en 1992. Dans le cadre de leur stratégie de marketing promotionnel, ils ont décidé qu'ils voulaient un site Web pour que les fans puissent vérifiez leurs dates de tournée et lisez les dernières nouvelles sur le groupe.
À l'époque, les entreprises devaient indexer manuellement les fichiers de leur site Web via Gopher si elles voulaient apparaître dans les répertoires de recherche. Cependant, les moteurs de recherche avaient mis au point des moyens automatisés imaginatifs pour effectuer des recherches sur Internet et afficher les résultats des utilisateurs en fonction du contenu du site Web.
Ainsi, lorsque Jefferson Starship a créé son site Web, ils ont imaginé qu'être les propriétaires légitimes du nom du groupe et disposer d'un contenu officiel exclusif sur le groupe les placerait sur la première page des résultats de recherche. Cependant, leur site Web est resté bloqué à la page 4 pendant des mois, et rien de ce qu'ils ont fait ne semblait les déplacer d'un pouce dans n'importe quelle direction.
Après de nombreuses sessions de recherche et de conversations avec les gens de Yahoo, ils ont compris quel était le problème. Le groupe jouait depuis des décennies et leurs fidèles écrivaient des articles à leur sujet depuis des années. Des milliers de publications et de magazines spécialisés dans la musique avaient des tas de critiques d'albums, d'interviews et d'articles de potins qui mentionnaient Jefferson Starship et leurs actes.
Le groupe n'avait ni le temps ni les ressources nécessaires pour remplir son site Web d'énormes quantités d'articles sur le groupe pour justifier l'inclusion de milliers d'instances du mot-clé.
Dans un coup de génie, leur webmaster a décidé d'écrire "Jefferson Starship" des centaines de fois sur tout le site mais en utilisant une couleur de police invisible pour ne pas rebuter les visiteurs. Le déménagement a fonctionné comme un charme, les plaçant au premier rang dans les recherches de leur propre nom et devenant le premier exemple connu de bourrage de mots clés, du moins officiellement.
Il n'a pas fallu longtemps aux marketeurs pour appliquer la même stratégie et polluer les moteurs de recherche avec des résultats inutiles pour promouvoir leurs produits. Cela a déclenché une énorme course aux armements qui fait toujours rage aujourd'hui. Les moteurs de recherche et les spécialistes du référencement Black Hat essaient constamment de se déjouer les uns des autres et il n'y a pas encore de gagnant clair. Ils rempliraient leurs sites Web de mots-clés et achèteraient des centaines de domaines commençant par des variantes de "AAA" et "111" dans leurs noms, et les annuaires modifieraient leurs algorithmes pour donner la préférence aux sites Web "officiels" ou instituer pay-to-play stratagèmes qui entraîneraient des pratiques contraires à l'éthique.
L'avènement des moteurs plus intelligents
En 1996, deux étudiants de l'Université de Stanford ont mis au point un système appelé PageRank qui classerait les sites en fonction de ce qu'on appelle la "pertinence des liens". Leur algorithme évaluerait l'autorité d'un site Web en fonction du nombre de liens pointant vers celui-ci. Les sites Web populaires généreraient plus de liens entrants, ce qui signifie que plus de personnes leur faisaient confiance, du moins en théorie.
Cela a marqué le début de Google et a révolutionné la façon dont les moteurs de recherche classaient les sites Web et affichaient les résultats.
Lorsque Google est devenu le leader incontesté, il était clair que garantir des résultats de haute qualité était le seul moyen pour eux de rester au top. Dès lors, les moteurs de recherche se sont concentrés sur l'offre de résultats de recherche de haute qualité et exploitables pour leurs utilisateurs. Les moteurs de recherche d'aujourd'hui ne sont pas aussi faciles à tromper qu'ils l'étaient à l'époque. Les algorithmes modernes prennent en compte beaucoup plus de facteurs lors de l'évaluation de la valeur d'un site Web et de sa pertinence.
Cela a encouragé l'apparition de réseaux de blogs privés et de fermes de liens comme moyens d'inonder les sites de liens de spam pour les rendre plus populaires. Google a tenté de lutter contre cela de deux manières : en pénalisant les liens de mauvaise qualité et en introduisant des solutions telles que la balise "nofollow". Bientôt, tous ces liens inorganiques ont été étiquetés "toxiques" et de nombreux sites Web ont été sévèrement punis pour avoir été liés par eux. Cette décision a également déclenché la fièvre de la sculpture PageRank afin de contrôler la façon dont le jus de lien était administré.
Recherches localisées et intention de recherche
Au fur et à mesure que la technologie progressait et que l'adoption des appareils intelligents devenait universelle, Google a commencé à prendre en compte l'emplacement et la "proximité". Ils ont également mis en place des options de recherche vocale afin que les gens puissent effectuer des requêtes plus naturellement.
À un moment donné, certains experts SEO locaux ont réalisé que les mots-clés à longue traîne contenant le terme « près de chez moi » avaient des volumes de recherche qui dépasseraient immensément les recherches plus localisées contenant le nom de la ville ou de la ville.
Par exemple, « dentiste près de chez moi » génère actuellement plus d'un million de recherches chaque mois, tandis que « Dentiste à Manhattan » ne reçoit que 46 recherches par mois. Cela a rapidement été interprété comme si le Saint Graal des recherches locales avait été trouvé et a déclenché la ruée vers l'or « près de chez moi ».
Cependant, beaucoup ont commencé à souligner que ces recherches "près de chez moi" représentaient des requêtes effectuées à travers les États-Unis, tandis que les recherches "dentiste à Manhattan" étaient effectuées par des personnes vivant dans la région ou qui envisageaient de visiter la région pour des soins dentaires. Ces recherches centrées sur la localisation à faible volume sont beaucoup plus précieuses car elles reflètent l'intention d'achat réelle.
Pour tester cela, l'équipe de référencement local de 1Digital Ⓡ Agency a réalisé une petite expérience l'année dernière et a créé une série de pages ciblant plusieurs villes importantes aux États-Unis où nous étions physiquement présents. Nous avons non seulement ajouté des mots-clés spécifiques à l'emplacement, mais également un contenu de haute qualité qui était pertinent pour chaque emplacement et qui a été organisé par des spécialistes du marketing dans ces domaines.
Après un an, les résultats ont montré que même si les pages reçoivent des visites modestes par rapport à d'autres URL à trafic plus élevé, elles ont des taux de rebond très faibles et des durées de session de page plus que décentes, ce qui signifie que les utilisateurs ont trouvé ce qu'ils cherchaient et ont continué à naviguer sur le site Web.
Nos experts en référencement local suivent et enquêtent constamment sur les tendances en coulisses. L'un d'entre eux est l'utilisation du modificateur "à proximité" qui est généralement ajouté aux mots clés dans les campagnes locales. Une analyse approfondie a révélé que lorsque Google reçoit une demande de résultats "à proximité", il croise l'adresse IP de l'utilisateur pour déterminer son emplacement réel. Google leur fournit ensuite des résultats qui sont en fait « près d'eux », qu'ils contiennent ou non les mots-clés « près de moi » ou « près » d'un emplacement spécifique. Par exemple, un utilisateur de Philadelphie qui recherche des "services de marketing numérique près de chez moi" obtiendrait de nombreux résultats pour les agences de marketing numérique de Philadelphie, du sud-est de la Pennsylvanie et d'autres mots clés similaires.
Cela nous a permis de concevoir des stratégies de référencement local encore plus efficaces pour nos clients, et de garantir que nos méthodes et processus sont toujours en adéquation avec ce que les moteurs de recherche veulent offrir à leurs utilisateurs sur le long terme.
Si vous souhaitez que votre site Web mette en œuvre des stratégies de référencement local basées sur des données concrètes et des méthodes qui ont fait leurs preuves, vous êtes au bon endroit. 1Digital Agency est une équipe de professionnels du marketing axés sur les données qui ont aidé des dizaines de clients à libérer leur véritable potentiel. Planifiez un appel aujourd'hui et apprenez-en plus sur nos incroyables services de marketing en ligne.