La vigueur du mouvement communautaire sur le Web suscite l’avènement de nouveaux modèles en matière de référencement. Non seulement les organisations cherchent-elles à tisser des liens avec les sites de masse tels YouTube et Flickr, mais le mouvement transforme la mécanique même des moteurs de recherche.
Sans référencement efficace, point de salut. Les entreprises dont l’activité commerciale est axée sur le Web en savent quelque chose. Selon une étude effectuée en 2003 par la Pennsylvania State University, 54 % des utilisateurs ne dépassent pas la première page des résultats provenant de leur moteur de recherche, alors que 19 % seulement consultent la deuxième.
Mieux vaut compter, pour figurer en tête de liste, sur les services offerts moyennant rétribution, direz-vous. Pas vraiment. Car 70 % des utilisateurs consultent les résultats « organiques », c’est-à-dire ceux qui ne proviennent pas d’un service payé (tel que l’indique cet article). Et cette proportion passe à 80 % dans Google…
La recherche dite sociale
Le caractère stratégique du référencement (ou search engine optimization – SEO) exige donc de demeurer au fait des progrès réalisés en cette matière. À cet égard, nombreux sont les observateurs estimant que le référencement social (traduction libre de Social Media Optimization – SMO) constituera cette année une préoccupation de premier plan chez les organisations cherchant à générer un trafic et des commentaires positifs sur Internet à propos de leurs produits.
Dérivé du marketing social, ce type de référencement est une méthode d’optimisation des sites Web consistant à favoriser les liens avec les communautés en ligne. La popularité de ces sites – tels Wikipédia, Digg et MySpace – n’a pas échappé aux spécialistes du marketing.
Jumelé à l’avènement du Web 2.0, ce phénomène social fait en sorte que les algorithmes de recherche accordent une importance grandissante à la pertinence des sites, ainsi qu’au degré de fiabilité qu’on leur accorde, et non plus seulement à leur nombre. Plus un site est visible au sein de communautés telles del.icio.us et technocrati.com, plus il sera jugé fiable, et plus Google s’empressera de l’inclure dans ses résultats, peut-on lire sur le site Industrial Search Engine Marketing.
Les organisations ont donc intérêt à mettre en place des stratégies visant à étendre leurs contenus à des publics intéressés sur des sites communautaires reconnus, à ce que des blogues pertinents parlent le plus possible de leurs produits.
Le jugement humain
Par ailleurs, la multiplication des informations en ligne entraîne des problèmes nouveaux. Les résultats d’une recherche relativement ciblée sur la Toile peuvent comporter des millions d’éléments, parmi lesquels on risque de ne jamais trouver les données les plus pertinentes. Il suffit de penser que le site technocrati.com étend ses activités à près de 50 millions de blogues et que, chaque seconde, il s’en crée un nouveau à l’échelle de la planète, comme le rapporte ici un mercaticien.
Situation incitant les internautes à utiliser des solutions de rechange à la recherche basée sur algorithme, dont les réponses ne font pas toujours preuve de la plus grande subtilité. Une des méthodes privilégiées en ce sens est la recherche humainement filtrée, par laquelle les contenus sont triés par des personnes en chair et en os, qui créent leurs propres groupements de sujets afin de les mettre en commun avec d’autres internautes. On en trouve des exemples sur les sites PreFound, Squidoo et Rollyo.
On estime généralement que la recherche à intervention humaine s’imposera avec force en 2007. Le site ezine articles affirme que, dans les années à venir, le rang d’un site dans les résultats de recherche pourrait dépendre uniquement du jugement humain, plutôt que du nombre de liens pointant vers le site en question.