Trafic de robots : qu'est-ce que c'est et comment l'arrêter

Publié: 2020-11-19

Qu'est-ce que le trafic de robots ?

Il s'agit de toute activité menée sur Internet qui n'est pas effectuée par un être humain. Les utilisateurs gagnent du temps en effectuant des tâches manuelles lorsqu'ils achètent du trafic de bot, des programmes informatiques ou des scripts automatisés. Les robots en ligne ont été créés pour exécuter un large éventail de fonctions en imitant le comportement humain. Malgré la connotation négative, tous les robots en ligne ne sont pas malveillants. Les robots des moteurs de recherche sont de bons robots car ils explorent les sites Web pour fournir à Google, Yahoo et Bing des informations importantes.

Vous pouvez utiliser des robots de surveillance pour vous assurer que votre site Web fonctionne correctement et reste sain. Les robots d'exploration SEO comparent les sites Web pour vous aider à améliorer votre classement SEO en utilisant la visibilité et les données. Malheureusement, les mauvais robots peuvent endommager considérablement votre site Web en effectuant des tâches malveillantes. Les robots grattoirs Web recherchent sur votre site Web des informations souvent republiées en tant que contenu original. Comprendre comment arrêter le trafic des robots sur les sites Web est essentiel pour la santé de votre site.

FAIT : La plupart des estimations indiquent que les bots représentent environ 50 % de tout le trafic Internet et sont fournis par une variété de sources.

Identification du trafic des bots

Vous pouvez identifier ce type de trafic en regardant directement les requêtes réseau reçues par votre site Web. Vous pouvez également utiliser des outils créés pour l'analyse Web intégrée tels que Google Analytics. Si vous voyez l'une des anomalies répertoriées ci-dessous, il y a de fortes chances que des bots soient présents sur votre site Web.

Taux de rebond inhabituellement élevé

Votre taux de rebond vous montre combien de consommateurs ont visité une seule page de votre site Web, puis sont partis avant de cliquer sur quoi que ce soit. Si votre taux de rebond est anormalement élevé, c'est une bonne indication que les bots sont dirigés vers une page spécifique de votre site. Il existe des moyens de suivre votre taux de rebond sur Google Analytics et d'autres outils. Par exemple, voici un taux de rebond élevé observé sur Google Analytics :

Trafic de robots : qu'est-ce que c'est et comment l'arrêter

(Crédit image : Oeuf fou)

Pages vues anormalement élevées

Si votre site Web connaît une augmentation soudaine, inattendue et sans précédent du nombre de pages vues, les bots cliquent très probablement sur votre site.

Conversions indésirables

Lorsque vous avez une augmentation des conversions d'apparence frauduleuse, il se peut que des robots spammeurs remplissent des formulaires sur votre site Web. C'est à ce moment que de faux noms, adresses e-mail et numéros de téléphone sont utilisés pour remplir et soumettre des formulaires de contact sur votre site.

Durée de session inhabituellement faible ou élevée

La durée de la session est la durée pendant laquelle vos utilisateurs restent généralement sur votre site Web. La période devrait rester assez stable. Si vous constatez une durée de session anormalement élevée, les bots peuvent parcourir votre site Web extrêmement lentement. Si vous remarquez une baisse inhabituelle de la durée, les robots peuvent cliquer sur vos pages beaucoup plus rapidement que les humains.

Pics de trafic provenant d'emplacements inattendus

Des pics soudains de trafic provenant d'une région spécifique sont souvent une indication d'un bot. Recherchez les zones où la plupart des gens ne parlent pas couramment la langue maternelle de votre site Web.

Bons robots Web

Tous les bots ne sont pas mauvais et plusieurs sont capables d'aider votre site Web. Les bons bots les plus courants sont détaillés ci-dessous.

Robots des moteurs de recherche

Le type le plus évident de bon bot est un bot de moteur de recherche. Ces robots en ligne parcourent les pages de votre site Web pour aider votre site à être répertorié sur les moteurs de recherche, notamment Bing, Yahoo et Google. Les demandes sont généralement automatisées mais sont bonnes pour votre site Web.

Robots d'exploration de référencement

Faire de votre site Web le numéro un est incroyablement difficile. Les moteurs de recherche ont besoin d'informations pour classer votre site. Il existe un logiciel d'exploration SEO capable d'explorer les sites Web de vos concurrents pour vous aider dans votre référencement et déterminer votre classement. Ces données sont utilisées par les webmasters pour améliorer le trafic Web organique et la visibilité de la recherche. Par example:

Trafic de robots : qu'est-ce que c'est et comment l'arrêter

(Crédit d'image : grenouille hurlante)

Vous serez intéressé

Robots de surveillance

Votre site Web doit être en ligne autant que possible et rester sain. C'est très probablement l'une de vos priorités. Il existe une large sélection de robots pour surveiller votre site et s'assurer que votre site Web est toujours accessible. Votre site recevra automatiquement un ping pour s'assurer qu'il est toujours en ligne. Si votre site Web devait se déconnecter ou tomber en panne, vous en serez immédiatement informé afin que vous puissiez résoudre le problème.

Robots de droit d'auteur

L'un des plus grands défis est de s'assurer que vos images ne sont pas volées et utilisées pour un autre site. La meilleure option pour vérifier le grand nombre de sites Web consiste à utiliser un bot automatisé. Cela vous permet d'explorer le Web pour rechercher des images spécifiques afin de vous assurer que votre contenu protégé par le droit d'auteur n'est pas utilisé illégalement sans votre permission.

Mauvais robots Web

Les mauvais bots sont exactement le contraire des bons bots. S'il est autorisé à se déplacer librement, le résultat peut être très dommageable pour votre site Web. Les robots malveillants les plus courants incluent :

Robots de spam

Si vous avez reçu des commentaires de blog ou des e-mails étranges, il y a de fortes chances qu'ils aient été laissés par un spam bot. Ce type de bot laisse des messages générés qui n'ont généralement aucun sens sur les blogs de sites Web. Les spambots génèrent également des messages promotionnels et remplissent les formulaires de contact du site Web.

Grattoirs Web

Les grattoirs Web sont des robots en ligne extrêmement ennuyeux qui récupèrent des sites Web à la recherche d'informations importantes, notamment des coordonnées et des adresses e-mail. Parfois, des images et du contenu de sites Web sont volés pour être utilisés pour des comptes de médias sociaux et des sites Web sans autorisation. La seule personne qui gagne quoi que ce soit d'un spam bot est la personne qui récupère les données.

Faux robot générateur de trafic

Un faux bot ou outil générateur de trafic génère une page vue sur n'importe quel site pour cibler les publicités PPC de l'utilisateur. Des centaines de clics et de vues peuvent être obtenus rapidement, y compris les vues d'annonces et de pages. La plupart des robots obligeront le visiteur à afficher la page.

Testez votre SEO en 60 secondes !

Diib est l'un des meilleurs outils de référencement au monde. Diib utilise la puissance du Big Data pour vous aider à augmenter rapidement et facilement votre trafic et vos classements. Nous vous ferons même savoir si vous méritez déjà d'être mieux classé pour certains mots-clés.

  • Outil de référencement automatisé facile à utiliser
  • Surveillance des mots-clés et des backlinks + idées
  • Vitesse, sécurité, + suivi Core Vitals
  • Suggère intelligemment des idées pour améliorer le référencement
  • Plus de 250 000 000 membres dans le monde
  • Analyse comparative et analyse des concurrents intégrée

Par exemple « www.diib.com »

Utilisé par plus de 250 000 entreprises et organisations :

  • logo
  • logo
  • logo
  • logo

Se synchronise avec Google Analytics

référencement

Réseaux DDoS

L'un des bots les plus meurtriers et les plus anciens est un bot DDoS. Il s'agit d'une version abrégée du bot de déni de service distribué. Ces bots sont généralement installés sur des PC avec l'intention de cibler un serveur ou un site Web spécifique pour les mettre hors ligne. La plupart des gens ne savent pas qu'ils ont un bot DDoS jusqu'à ce que le mal soit déjà fait. De nombreux rapports font état de ces robots causant des dommages financiers importants aux sites Web car ils sont hors ligne pendant plusieurs jours. L'image ci-dessous explique visuellement ce processus :

Trafic de robots : qu'est-ce que c'est et comment l'arrêter

(Crédit image : moyen)

Analyseurs de vulnérabilité

Au départ, ces robots semblent être avantageux pour les journaux du serveur de votre site Web. En vérité, ils sont exactement le contraire. Il existe une grande variété de robots malveillants qui analysent des millions de sites Web pour rechercher des vulnérabilités. Les résultats sont apportés directement aux créateurs. Un bon bot informe le propriétaire du site. Ces robots sont conçus pour signaler à une personne spécifique qui utilise ou vend généralement les informations pour le piratage de sites Web.

Le saviez-vous ? Les robots publicitaires peuvent également créer et abandonner des paniers d'achat , voler du contenu unique et le présenter comme le leur, fabriquer de faux comptes sur des sites d'adhésion et générer du trafic malveillant pour créer de faux pics de trafic, faussant tous les KPI marketing, les conversions CPC et le retour sur investissement global de la campagne publicitaire. . Selon des rapports récents, la fraude publicitaire à elle seule devrait dépasser 3,3 milliards de dollars . (f5.com)

Comment arrêter le trafic des robots sur le site Web

Vous devez vous protéger car les bots se retrouvent tous les jours sur les sites Web. Il existe différentes méthodes et raisons pour cibler chaque site individuel. Cela signifie qu'aucune solution unique n'est disponible pour défendre votre site Web contre tous les types de robots. Votre meilleure option est d'être proactif pour résoudre le problème en prenant certaines mesures. Les recommandations ci-dessous vous aideront à prévenir les attaques de robots.

Blocage des serveurs proxy et des hébergeurs connus

Les attaquants les plus avancés cibleront les réseaux plus difficiles à bloquer. Les robots moins sophistiqués peuvent facilement accéder aux services de proxy et d'hébergement. Le blocage de l'accès à ces sources décourage souvent les attaquants potentiels de cibler votre site Web, vos applications mobiles et votre API.

Blocage des navigateurs et agents utilisateur obsolètes ou CAPTCHA

De nombreux scripts et outils ont des configurations par défaut contenant pour la plupart des listes de chaînes obsolètes pour les utilisateurs. Bien que les bloquer n'arrêtera pas les utilisateurs plus expérimentés, vous pouvez en décourager ou en attraper certains. Le risque de bloquer des navigateurs et des agents obsolètes est extrêmement faible. En effet, la majorité des navigateurs modernes imposent des mises à jour automatiques. Cela rend plus difficile la navigation sur le Web avec une version obsolète.

Surveillance de l'augmentation des échecs de validation des numéros de cartes-cadeaux

Si vous avez une augmentation du trafic ou des échecs de validation pour les pages de cartes-cadeaux, cela indique qu'une tentative est en cours pour voler les soldes de vos cartes-cadeaux. L'un des bots les plus courants de ce type est GiftGhostBot.

Enquêter sur les pics de trafic

Les pics de trafic ne sont pas avantageux pour votre entreprise s'il n'y a pas de source précise et claire. Une source inexpliquée est souvent une indication de l'activité d'un mauvais bot. Par exemple:

Trafic de robots : qu'est-ce que c'est et comment l'arrêter

(Crédit d'image : Davidson numérique)

Protection de tous les points d'accès contre les mauvais robots

Vous devez vous assurer que vos applications mobiles et API exposées sont protégées en plus de votre site Web. Les informations concernant le blocage doivent être partagées entre vos systèmes. Si vous laissez la porte dérobée de votre site ouverte, la protection de votre site Web sera inefficace.

Soyez conscient de toutes les violations de données publiques

Les informations d'identification récemment volées ont tendance à être actives. En cas de violation de données importante, ces informations d'identification seront utilisées par de mauvais robots avec une fréquence croissante.

Évaluation des sources de trafic

Vous devez surveiller attentivement vos sources de trafic pour des taux de conversion réduits à partir de sources spécifiques et des taux de rebond élevés. Ce sont souvent des indices de bots.

Surveillance des échecs de connexion

La ligne de base pour les tentatives de connexion infructueuses doit être définie afin que vous puissiez surveiller les pics et les anomalies. Vous pouvez configurer des alertes pour les notifications automatiques. Vous devez configurer des seuils globaux, car les attaques lentes et faibles ne déclencheront pas vos alertes de session ou de niveau utilisateur.

Évaluation des solutions d'atténuation des bots

Chaque jour, des personnes travaillent pour attaquer des sites Web partout dans le monde. La pression sur vos ressources et votre service informatique est coûteuse en raison du volume massif, des dommages et de la sophistication des menaces de robots automatisés. Le comportement humain est imité par les bots, ce qui leur permet de contourner de nombreux outils de sécurité plus traditionnels. Envisagez une évaluation des services d'atténuation des bots offrant un support vigilant et une expertise au sein de l'industrie pour un contrôle et une visibilité complets sur le trafic abusif des bots. Par example:

Trafic de robots : qu'est-ce que c'est et comment l'arrêter

(Crédit image : AskF5)

Problème de performances avec le trafic des bots

De nombreux attaquants envoient d'énormes quantités de trafic via des bots pour lancer une attaque DDoS. Lorsque des quantités massives de trafic sont dirigées vers un seul site Web, le serveur d'origine risque d'être surchargé. Cela rend le site Web indisponible ou lent pour les utilisateurs légitimes. Le trafic malveillant des robots peut paralyser financièrement votre site Web sans affecter ses performances. Vous êtes plus vulnérable si vous vendez des produits avec un inventaire limité.

Si votre site Web diffuse des publicités, de faux clics publicitaires peuvent être déclenchés lorsque des bots cliquent sur différents éléments de la page. C'est ce qu'on appelle la fraude au clic. Même si vos revenus publicitaires peuvent recevoir une augmentation temporaire, les réseaux publicitaires peuvent détecter les clics de robots. S'ils soupçonnent que vous commettez une fraude au clic, des mesures seront prises contre vous. Vous et votre site Web pouvez être bannis du réseau. C'est la raison pour laquelle les sites Web hébergeant des publicités sont extrêmement prudents face à la fraude au clic.

Les robots de thésaurisation des stocks cibleront les sites Web avec des inventaires limités. Les robots visitent les sites Web de commerce électronique et chargent les paniers d'achat avec de grandes quantités de marchandises. Les acheteurs légitimes ne peuvent alors pas effectuer d'achat car votre marchandise n'est pas disponible. Parfois, le résultat est un réapprovisionnement inutile de votre fabricant ou fournisseur. Ces types de bots n'achèteront jamais rien. Ils sont conçus pour perturber l'inventaire dont vous disposez. Le trafic non autorisé provenant de bots peut affecter vos analyses, notamment :

  • Taux de rebond
  • Géolocalisation des utilisateurs
  • Durée de la session
  • Pages vues
  • Conversions

Ces types d'écarts de mesures sont extrêmement frustrants pour le propriétaire du site Web. Lorsque votre site Web est inondé d'activités de robots, il est extrêmement difficile de mesurer vos performances. Le bruit résultant des robots paralysera vos tentatives d'amélioration de votre site Web telles que l'optimisation du taux de conversion et les tests A/B. Dans certains cas, Google Analytics peut afficher du trafic de référence provenant d'un club de trafic de robots de site Web.

Ce sont quelques-unes des raisons pour lesquelles une solution de détection et de prévention de la fraude est si importante. Des centaines de points de données peuvent être capturés pour votre trafic. Ces informations peuvent être utilisées efficacement pour déterminer d'où viennent les robots frauduleux afin que vous puissiez les bloquer sur votre site Web. Vous pouvez détecter les bots et déterminer quels utilisateurs sont humains. Vous pouvez optimiser vos campagnes en continu car vous recevez des analyses détaillées pour votre site. Cela garantit que la fraude devient un problème beaucoup plus petit.

Vous avez alors la possibilité d'améliorer les performances de votre campagne. Vous pouvez résoudre les problèmes liés à la fraude publicitaire tout en profitant de nombreux avantages, notamment :

  • Augmenter votre retour sur investissement ou ROI
  • Améliorer vos métriques
  • Optimiser vos dépenses

Une fois que vous savez que votre argent n'est pas utilisé par des fraudeurs pour remplir leurs poches, vous pourrez vous détendre et améliorer votre référencement. Cela signifie que votre entreprise sera plus organisée et efficace avec un plus grand potentiel de croissance. Les annonceurs de tous les secteurs sont impactés négativement par la fraude publicitaire due aux bots. Vous pouvez protéger votre site Web en investissant dans une protection contre la fraude publicitaire.

Trafic des bots Google Analytics

Vous pouvez utiliser Google Analytics pour supprimer le trafic des bots afin d'aider à éliminer un problème de performances avec le trafic des bots. Si vous effectuez une recherche sur Google pour savoir comment supprimer le trafic des bots, vous découvrirez un plan d'action généralement recommandé. Dans la plupart des cas, les étapes suivantes sont recommandées.

La première étape

Accédez aux paramètres de votre vue d'administration. vous devez cocher l'option pour exclure tous les hits des araignées et des robots connus. Par exemple:

Trafic de robots : qu'est-ce que c'est et comment l'arrêter

(Crédit image : Marketing Land)

Deuxième étape

Vous devez identifier tout le trafic suspect tel que les navigateurs obsolètes et les visites répétées. Vous pouvez exclure toutes les adresses IP correspondantes à l'aide d'un filtre.

Nous espérons que vous avez trouvé cet article utile.

Si vous souhaitez en savoir plus sur la santé de votre site, obtenir des recommandations et des alertes personnalisées, analysez votre site Web par Diib. Cela ne prend que 60 secondes.

Entrez votre site Web

Par exemple « www.diib.com »

J'ai trouvé Diib très utile pour démystifier les données de Google Analytics, ce qui peut être accablant. Le service parcourt vos données et trouve les domaines où vous pouvez vous améliorer - même si vous étiez un expert, cela vous ferait gagner du temps. Pour moi, cela signifie que les données collectées par Google Analytics deviennent exploitables pour que je puisse m'améliorer, plutôt que simplement intéressantes.
Témoignages
Nick Colebatch
Fourniture de couverture de VR

Troisième étape

  • Accédez à Propriété > Informations de suivi > Liste d'exclusion de références.
  • Vous pouvez mettre en œuvre la première suggestion en cliquant simplement sur la case à cocher.
  • Cela garantira que tous les bots répertoriés sur la liste des araignées et des bots du Bureau international de la publicité sont exclus de vos données pour Google Analytics.
  • Tout bot ne figurant pas sur cette liste restera non détecté.

L'identification manuelle et l'exclusion des adresses IP suspectes ne sont pas aussi fiables et beaucoup moins pratiques.

Il peut y avoir beaucoup de trafic apparaissant comme suspect si vous avez un grand site Web. Évaluer et filtrer ce trafic prend beaucoup de temps. La capacité des robots à imiter les humains s'est également considérablement améliorée. L'une des méthodes les plus courantes consiste à diffuser un grand nombre de bots sur différentes adresses IP. Cela inclut les adresses résidentielles. Cela ne signifie pas que vous ne devez pas utiliser la liste d'exclusion de références.

Gardez à l'esprit que lorsque vous utilisez cette option pour exclure les sources de référence, vous ne pourrez pas suivre les résultats de cette source. Vous supprimerez toutes les informations de référence. Ces types de hits apparaîtront comme du trafic direct. Cela pourrait rendre vos données pires qu'elles ne l'étaient auparavant. En fin de compte, vous ne devez pas éliminer le trafic de robots en utilisant la liste d'exclusion de références. Votre meilleure option est de choisir d'exclure tous les hits des araignées et des robots connus. Cette solution n'est peut-être pas parfaite mais elle est pratique.

Diib vous avertit de tout trafic de bot négatif !

Les conseils ci-dessus aident à limiter le trafic de bot négatif que votre site Web peut recevoir, cependant, des logiciels, comme Diib Digital, peuvent vous donner un aperçu de tout le trafic négatif vers votre site. Nos alertes ont été conçues pour vous avertir lorsqu'une action ou un trafic négatif se produit sur ou à propos de votre site Web. Les objectifs vous donnent des solutions de réparation, en langage courant, qui limitent le temps nécessaire à la restauration de votre site Web. Voici quelques-unes des fonctionnalités de Diib Dashboard que vous allez adorer :

  • Surveillance du taux de rebond
  • Alertes de trafic de bot
  • Post-performance
  • Pages cassées où vous avez des backlinks (vérificateur 404)
  • Outils de surveillance et de suivi des mots clés, des backlinks et de l'indexation
  • Expérience utilisateur et optimisation de la vitesse mobile

Obtenez une analyse de site gratuite de 60 secondes ou appelez simplement le 800-303-3510 pour parler à l'un de nos experts en croissance.