Logo MBCC

MBCC Actualité

Graphisme - Photo - Intégration Web - Rédaction

Référencement naturel, payant..?

Rédigé par mbcc - -

clavier2Beaucoup d'utilisateurs du web se posent aujourd'hui des questions sur le référencement de leur site Internet. Les termes techniques utilisés par les professionnels ne sont pas très explicites. Que signifie le terme « SEO », faut-il absolument payer pour voir son site correctement référencé, comment cela fonctionne-t-il, etc.

Les techniques de référencement « naturel»  consistent à faire comprendre aux robots d'indexation des moteurs de recherche les contenus d'un site web. L'enjeu marketing est énorme pour les entreprises positionnées sur la toile, dont le nombre est exponentiel. Aussi, pour tenter de calmer cette course furieuse dont les effets entraînent une véritable pollution de l'Internet, un certain nombre de règles ont été mises en place depuis plusieurs années. Elles sont constamment mises à jour en fonction de l'évolution des techniques, ...et surtout des pratiques des artisans du web.

Acronymes et techniques

serveur
  • Le SEM (Search Engine Marketing), évoque des techniques dont l'objet est de renforcer la visibilité d'un site Internet via les moteurs de recherche et les réseaux sociaux. Le SEM regroupe SEO, SMO et SEA.
  • Le SEO (Search Engine Optimization) concerne les méthodes naturelles ou « organiques»  qui visent à renforcer la visibilité d'un site sur les moteurs de recherche. Elles concernent à la fois l'arborescence, les contenus et codage du site concerné, et les sites extérieurs avec lesquels on échange des liens hypertextes.
  • Le SMO (Social Media Optimization) comprend les actions qui tendent à développer la visibilité d'un site par le biais des médias des réseaux sociaux, comme Facebook, Twitter, Google Plus, Linkedin, Youtube, Viadeo, etc.
  • Le SEA (Search Engine Advertising) désigne les pratiques qui consistent à acheter de l'espace publicitaire sur les moteurs de recherche, comme par exemple « Adwords»  de Google.

Des règles clairement établies...

Pour qu'un site Internet soit correctement indexé par les robots, les exigences de qualité de structuration, de rédaction et de hiérarchie de l'information demandent aujourd'hui un soin et une clarté que ne peuvent pas apporter les programmes de création de sites en ligne.

Aujourd'hui, pour ne pas voir les sites qu'ils gèrent délaissés par les robots, les webmestres sont contraints de soigner la rédaction de textes riches de sens, de mentionner les mots importants dans les phrases rédigées et dans les titres, de construire une structure conforme au HTML 5 en respectant la hiérarchie des balises, d'utiliser les outils appropriés pour le design, comme le code CSS et le Javascript. Sans oublier les « backlinks» , ces liens qui pointent vers le site concerné, et qui représentent l'un des objectifs les plus importants pour le référencement.

...mais souvent contournées

Le terme « Black Hat»  désigne à la fois les gens qui ne respectent pas les consignes, et leurs pratiques de référencement déloyales (comme par exemple les trois premiers commentaires de cet article... merci pour l'exemple). Jouer avec ces règles, tenter d'exploiter des failles dans les algorithmes des moteurs, ou encore chercher à automatiser certaines tâches de référencement au moyen de logiciels sont des actions qui peuvent conduire à de sévères pénalités pour les sites web concernés.

penguin« Penguin»  est un filtre que Google déploie régulièrement au plan mondial pour nettoyer ses résultats, tout en sanctionnant les abus de liens obtenus de façon artificielle. La dernière mise à jour est officiellement en place depuis le 18 octobre 2014. Son déploiement international s'étalera progressivement sur plusieurs semaines.

En conclusion...

Faire confiance à votre webmestre, que les moteurs de recherche comme Google et Bing tiennent régulièrement informés des dernières évolutions en terme de codage.

Mais surtout, revenir au sens premier d'un contenu web : l'information et sa pertinence. Coder un site, c'est se mettre à la place de l'internaute dans sa recherche d'information. Le référencement viendra, dès lors que les webmestres chercheront à sensibiliser non pas les machines, mais les personnes qui les lisent. C'est dans cet esprit que les robots d'indexation sont programmés aujourd'hui.

#1 weboref a dit :

Je suis d'accord avec la conclusion de l'article, toujours faire un site en fonction du surfeur et non des moteurs de recherche!

#2 Admin a dit :

Merci pour vos messages sincères..! Hum... à propos, je me suis permis d'effacer vos backlinks ;-)
Pourquoi mentir..? Pourquoi tenter de prendre les gens pour ce qu'ils ne sont pas..? Belle journée..!

Les commentaires sont fermés.