
Décidément, les wikis sont de plus en plus présents dans le monde de la recherche d’informations. Après Wikia, voici Websbiggest, un moteur qui prétend indexer plus de sites que tous ses concurrents (Google, Yahoo, MSN…) et qui ne manque pas d’originalités. En particulier, il associe les deux technologies de l’indexation automatique par des robots (spiders) et par des éditeurs humains (en mode wiki). La partie moteur de recherche est déjà originale en soi. En effet, Websbiggest a réalisé une copié virtuelle des domaines présents dans les bases whois, ce qui lui permet de tenir compte des sites récents ou réservés à une audience restreinte qui n’étaient pas pris en compte jusqu’alors par les concurrents. Deuxième originalité, Websbiggest classe les sites en fonction du trafic qu’ils génèrent, ce qui, d’après le porte-parole de la société, Adam Radly, “est une indication plus précise de la popularité des sites que les seuls hyperliens, qui ont tendance à favoriser les sites académiques ou les annuaires plutôt que les sites réellement populaires”. Mais la principale nouveauté provient du fait que Websbiggest a ajouté à ces fonctionnalités de moteur celles d’un wiki : ses utilisateurs peuvent proposer librement de nouveaux sites, ou modifier la description des sites qu’ils trouvent grâce à leurs recherches. Certes, selon Radly, “laisser les webmestres et les utilisateurs modifier eux-mêmes la description des sites peut être dangereux à court terme ; mais ces milliers de surfeurs éditeurs sont aussi ce qui rend notre moteur de recherche unique.” Comme toujours sur les wikis publics, et plus généralement sur Internet, il faudra donc prendre avec circonspection les informations trouvées grâce à Webbiggest. Mais faites le test de comparer ses résultats avec ceux de Google par exemple : il y a fort à parier que vous trouverez des sites qui n’apparaissaient pas auparavant dans les recherches.
D’après une information de URLWire
Laisser un commentaire