Le web scraping permet d’extraire automatiquement des données d’un site à partir d’un autre site, d’un programme ou d’un logiciel dans l’optique de les réutiliser. Plusieurs sites ou programmes permettent de faire du web scraping. Parmi eux, import.io et kimonolabs.com, qui figurent parmi les plus connus et les plus faciles d’utilisation.
Contrairement au copier-coller, le web scraping permet de récupérer le contenu d’un site web sans en dénaturer la structure – c’est pourquoi il est souvent utilisé pour faire de la veille concurrentielle. Le procédé peut aussi être détourné pour créer du contenu sur son propre site à partir de contenus concurrents… Ainsi, dans la mesure où le web scraping permet de copier l’intégralité d’un site sous un nom de domaine différent (et de faire du plagiat), il peut être considéré comme une façon de détourner du trafic et donc relever du « negative SEO ». Lorsqu’ils sont démasqués, les sites ayant recours à cette pratique sont blacklistés par Google.