Référencement, SEO et visibilité

Stratégie digitale : évitez l’échec au ROI

Vendredi 28/11 au matin, j’ai assisté à la présentation d’une agence rennaise intitulée Comment créez-vous de la valeur avec le trafic de votre site ? Sur le fond, globalement, rien d’extraordinaire. J’ai cependant apprécié le dynamisme du discours des 2 animateurs basé sur des exemples vécus. La problématique du digital : une ordonnée méconnue Si j’écris cet article, c’est surtout pour revenir sur ce qui a été évoqué lors du temps de parole : la

Tuto : désavouer les sites référents indésirables

Pour tout administrateur de site, un jour, la question s’impose : comment désavouer les sites référents indésirables ? J’avais déjà rédigé un article sur Semalt qui pourrissait les statistiques SEO. Mais, malheureusement, Semalt n’est pas le seul. Ce type de sites fleurit sur la toile et les bloquer un par un au fur et à mesure qu’ils apparaissent dans les résultats de Google Analytics ou Bing Analytics deviendrait vite devenu un travail de titanesque.

Référencement : Google Trends et les mots-clés

Rares sont les outils totalement gratuits dans ce domaine, alors autant en parler même si les détracteurs de Google vont encore blêmir… Google Trends vous permet de connaître rapidement les tendances de recherche sur le web d’une expression, selon une zone géographique, depuis 2004. Il vous permet aussi de comparer les tendances de plusieurs expressions. Cet outil est fort utile quand on est à l’étape de recherche des mots-clés du site au

Tuto Joomla! : configurer son site – Métadonnées (2ème partie)

Poursuivons la configuration de notre Joomla ! La première partie de cet article est ici pour ceux qui ont loupé ce détail. Autant commencer par le début, non ? Paramètres des métadonnées Les métadonnées sont les informations qui permettront aux robots d’identifier votre site et son contenu. Elles joueront aussi un rôle dans le référencement et le positionnement de votre site sur la toile. La description de votre site doit

Tutoriel : cultiver sa notoriété sur Twitter et pas celle des autres !

Vous l’avez sûrement remarqué, la plupart des articles de ce blog sont écrits suite à des anecdotes de mon quotidien de marketeuse. Et aujourd’hui, typiquement, ce post est un exécutoire à une réplique que j’entends trop souvent. Tout d’abord, le contexte : suite à une demande de refonte ou de création d’un site, je réalise en premier lieu, comme d’habitude, mon petit entretien QQOQCP pour savoir où je m’embarque et

Tutoriel Google webmaster Tools : hEntry, hAtom, hCard…

On continue après la lecture des articles Tuto : Google webmaster Tools – améliorer les données structurées et Tuto : Google webmaster Tools – corriger les erreurs des données structurées, par les corrections en pratique. Bientôt, hEntry, hAtom, hCard seront un vieux souvenir. Vous vous interrogez sur le “Pourquoi c’est à moi de corriger ces erreurs ?”. Je suis d’accord avec vous. C’est un peu fort d’avoir à corriger ses

Tuto Google webmaster Tools : corriger les erreurs des données structurées

Si vous ne l’avez pas déjà fait, je vous conseille de débuter le sujet des données structurées par l’article Tuto : Google webmaster Tools – améliorer les données structurées. Après avoir orienté Google sur les données structurées contenues dans votre site comme indiqué dans cet article, intéressons-nous aux lacunes de votre template, en nous rendant sur la page Apparence dans les résultats de recherche > Données structurées. Il y a de

Tuto : Google webmaster Tools – améliorer les données structurées

Holà, ça commence à se compliquer ! Mais qu’est-ce que ces données structurées ? À quoi ça sert ? On fait comment pour savoir si je les ai sur mon site et comment je les ajoute si elles n’y sont pas ? On va commencer par le commencement… Qu’est-ce qu’une donnée structurée ? Les données structurées : petite présentation Ce sont des informations qui sont exploitables par les moteurs de recherche

Tuto : le fichier robots.txt pour garder un peu de contrôle sur les crawlers

Le fichier robots.txt vous permet d’indiquer aux robots d’indexation “honnêtes” quelles parties du site, ils sont autorisés à télécharger pour en analyser le contenu. Placé à la racine du site, le fichier robots.txt est le premier lieu visité par le crawler quand il vient vérifier votre site. Il y prend les indications et équipé aussi du sitemap, il parcourt votre site à la recherche de nouveaux liens internes en partant

Déclarer son sitemap sur Google Webmaster Tools

On continue notre série sur la plateforme d’outils Google Webmaster Tools, en essayant de respecter l’ordre d’actions. Pour rappel, vous avez déclaré votre site, maintenant, il est souhaitable de déclarer votre sitemap pour aider Google à parcourir votre site avec ce plan. Comment déclarer son sitemap sur Google Webmaster Tools. Le sitemap, le GPS de Google pour parcourir votre site Quelques mots sur le sitemap avant de poursuivre… Nous l’avons déjà