1043 liens privés
"Une infographie qui propose 8 tendances fortes et plus ou moins nouvelles à suivre en référencement naturel pour cette nouvelle année. Evident si vous faites une veille de qualité, mais il n'est jamais mauvais de faire une petite piqûre de rappel..."
"Vous ne devriez pas négliger la rédaction de la balise meta description, même si elle n'a officiellement aucun impact direct sur votre positionnement Google. Découvrez dans cet article comment une bonne description (et un bon titre) peuvent fortement améliorer votre SEO."
"Combien de mots pour un article de blog ? Quelle est la longueur idéale pour une fiche produit sur un e-commerce ? 500 mots à ma gauche, 1200 mots à ma droite, qui dit mieux ? 5000 mots pour le monsieur du fond, adjugé vendu !"
"En regardant les deux dernières années passées dans mon rôle de SEO à l'agence, je constate que les actions les plus fréquentes que j'ai eu à réaliser ou recommander sont relatives au nettoyage de liens et à la production de contenu."
"En perpétuelle évolution, l’univers du SEO se réinvente au fil des mois. Comme chaque début d’année, les visionnaires du référencement se penchent sur les tendances en cours. Véritable feuille de route pour l’année à venir, ces grands axes nous indiquent quelles directions suivre pour maintenir un référencement optimisé sur les moteurs, tout en respectant les indications laissées par Google et autres moteurs de recherche au fil de leurs communications.seo-2015_GOOGLE"
"Une bonne pratique à mettre en oeuvre (et pourtant très rarement utilisée) est de soumettre aux moteurs de recherche ses fils RSS en tant que fichiers Sitemap XML. Cela ne prend que quelques minutes à mettre en place et favorise l'indexation des contenus nouveaux..."
"Les sites proposant plusieurs dizaines de milliers de pages web, voire plus, ont parfois des soucis d'exhaustivité d'indexation de leur contenu, notamment si le 'siloing' de leur arborescence est trop profond. Dans ce cas, le plan du site pour les internautes peut venir à leur rescousse, et à celle de Googlebot..."
"Quelle taille doit avoir le contenu de la balise meta Description ? Située historiquement autour de 150 caractères, les choses ont beaucoup évolué ces dernières années..."
"Comme nous l’avons déjà longuement développé lors d’un précédent article concernant l’optimisation de la structure d’un site , on peut clairement affirmer que la bonne évolution d’un site et de sa visibilité dans les moteurs sont en partie dues à son architecture.
Plus celle-ci sera optimisée et collera au plus près à la logique des moteurs de recherche, meilleurs seront les résultats.
Dans cet article, nous allons nous attarder sur une structure assez ancienne, pas souvent évoquée sur le web mais pourtant très performante au niveau référencement, enfin ce n’est que mon avis, bien sûr ! Il s’agit de la structure en silo ou siloing, qui signifie cloisonnement. "
"Balises sémantiques, données structurées, rich snippets, Schema.org, toutes ces 'appellations (pas toujours bien) contrôlées' ne désignent pas toutes les mêmes informations et les mêmes finalités. Pourtant, la structuration sémantique des contenus devient aujourd'hui aussi importante que le fait d'obtenir une meilleure visibilité dans les SERP..."
"En mai 2009 nous avons pu découvrir les résultats de recherche enrichis sur Google : non seulement on nous propose des réponses pertinentes par rapport à nos mots clés, mais en plus il nous est possible de savoir d’un simple coup d’oeil si la page correspond vraiment à ce que l’on veut, sans avoir à lire la description (et de préférer un lien qui présente 5 jolies étoiles plutôt que 2)"
" Lorsque nous pensons qu'un site est susceptible d'avoir été piraté, nous affichons le message suivant dans les résultats de recherche. Vous ne considérez peut-être pas personnellement votre site comme une cible pour le piratage informatique, mais cette pratique est plus courante qu'on ne le pense. Les hackers attaquent de nombreux sites sur le Web afin d'exploiter leurs utilisateurs ou leur réputation, et ce indépendamment de la thématique ou de la taille du site ciblé.
Les hackers profitent en général des sites vulnérables en y ajoutant des pages contenant du spam. Ces dernières sont ensuite utilisées à des fins diverses, par exemple pour rediriger les internautes vers des URLs de destination indésirables et nuisibles. Nous avons par exemple récemment constaté une augmentation du nombre de sites piratés qui redirigent les internautes vers de faux sites d'achats en ligne.
Une fois que vous avez constaté que votre site a peut-être été piraté, il est important d'analyser et de résoudre ce problème dès que possible. De manière générale, il est souhaitable que les webmasters maintiennent leur site sécurisé afin de protéger les internautes du contenu nuisible ou de type spam."
"Google vient de se voir attribuer son brevet "Ranking Documents" dans lequel l'auteur (Ross Koningstein) décrit un système de période de transition pendant laquelle le positionnement d'une page est arbitrairement perturbé pour mieux détecter les spammeurs."
"Selon un mythe ancien, les logiciels open source seraient fondamentalement risqués car ils déchargent les fournisseurs de toute responsabilité. On croit de façon générale que l’open source est synonyme d’une « bande de joyeux développeurs ». Une autre perception, un peu plus positive, est que l’on peut faire confiance à la communauté des développeurs jusqu’à un certain point, et que l’open source est destinée aux personnes ayant un souci financier et disposées à échanger l’aspect sécuritaire contre l’aspect économique. Dans tous les cas, ces points de vue ne sont que des généralisations erronées, voir des stéréotypes."
"Bing a publié sur son blog pour webmasters un post intéressant qui résume sa vision du contenu de qualité à l'aune de son algorithme de pertinence, au travers de 3 notions distinctes..."
" Cela n’est pas moi qui le dit mais une étude de Google qui a permis d’identifier que plus de la moitié des publicité sur internet n’étaient pas vu par les internautes. Vous allez me dire que pour Google cela n’est pas un problème car ils sont payés au clic mais plus il y aura d’opportunité de vu plus la probabilité de clics augmentera, c’est finalement logique.
Autre point intéressant de cette étude, avec finalement des résultats évidents, c’est que le format le plus vu est celui des bannières verticales. Encore une fois la logique est au rendez vous.
Le point qui est plus intéressant, c’est qu’une publicité placée au dessus de la ligne de flottaison n’est pas forcément vue, et une en dessous de cette ligne de flottaison non plus. D’ailleurs, la visibilité d’une publicité est très variable selon la thématique du support sur lequel elle est affichée."
"Une grande partie des notions relatives à la lisibilité des contenus sur les écrans date des débuts du web. En 1997, Jakob Nielsen déclarait que la lecture sur écran était 25% plus lente que sur le papier. Depuis cette époque, la technologie n’a cessé d’évoluer et la qualité des écrans et des polices de caractères va dans le bon sens. Il est temps de se poser des questions sur la lisibilité des caractères, le sens de lecture d’une page, les valeurs optimales pour le corps des textes et leur interlignage, le nombre de fontes que l’on peut utiliser dans une page et la rédaction pour le web."
"Une question récurrente se pose lors d'un audit de netlinking : comment mesurer la qualité d'un backlink ? En dehors des aspects mathématiques (pourcentage de nofollow/dofollow, etc.) et de la qualité du site générateur du lien, le critère principal est, selon nous, le service apporté à l'internaute au travers de ce lien, bref le sens qu'il représente..."
"Plus de 6 ans d'existence et 400 articles et je n'avais jamais rien écrit de sérieux sur ce sujet : Comment rédiger une meta description efficace ? Je m'empresse donc de corriger cette lacune."
"Si vous vous tenez informé de l’actualité SEO, vous avez certainement eu vent de l’affaire Expedia qui a récemment pris une douille de la part de Google entraînant une perte de visibilité de 25%. Et encore, 25% ce n’est pas cher payé au regard du volume de techniques black hat (à peine dissimulées) mises en place par ce dernier. J’ai en effet le sentiment qu’avec une telle proportion de liens artificiels, un « petit » site aurait pris une dérouillée bien plus cinglante. Il aura fallu attendre qu’un certain Nenad pousse une gueulante en décembre visant le site expedia.com, dénonçant par la même occasion la différence de traitement entre les sites « Big Brands » et les autres. "