Cette technique est très utilisé par les référenceurs « black hat » mais peut aussi être très utile pour du référencement white hat.
En SEO, le scrap consiste à aspirer le contenu d’une page web de manière automatique.
Cette technique est utilisée par :
Les moteurs de recherche
Les plus gros scrapers sont les moteur de recherche. Ils ont besoin d’aspirer vos pages afin de déterminer sur quels mots clés ils pourront remonter. Google aspire peut aspirer plusieurs millions de pages par jour sur les plus gros sites.
Les outils de suivi de position
Ils scrapent les pages de moteur de recherche afin d’identifier les positions des sites dans les SERPS.
Les outils de suivi de backlinks
Pour leur part ils analysent les liens présents sur chaque page
Les SEO
Les référenceurs aussi utilise ce type de technique.
Scrap de contenu
Leur objectif est d’aspirer un contenu afin de le reproduire / retravailler afin de le publier sur leur site. Le meilleure technique étant d’aspirer plusieurs sources de contenus afin de les croiser entre elles, ce qui vous permettra de créer un contenu unique.
Par exemple, vous pouvez aspirer la liste des musées de France ainsi que la météo pour proposer des idées d’activités en intérieur pour demain dans les villes où l’on annonce du mauvais temps.
Vous pouvez aussi aspirer le contenu d’un site concurrent pour analyser son offre tarifaire, étudier la qualité de ses descriptif produit,…
NB : La reproduction de contenu est facile mais illégale. Je déconseille d’aspirer du contenu sans l’autorisation du propriétaire.
Scrap pour du netlinking
Vous pouvez scraper les pages de résultats Google, des annuaires de sites, des agrégateurs de contenu afin de vous constituer une liste de sites sur lesquels vous souhaiteriez poser des liens.
Crédits photo : Khairil Zhafri
0 commentaire