Cloudflare a annoncé un nouvel outil pour aider les clients à détecter et analyser la présence de bots sur leur site Web. Appelée Bot Analytics, la nouvelle solution fournit une détection plus détaillée, informant les utilisateurs du nombre de robots présents et s’ils peuvent être classés comme «bons robots» ou «mauvais robots».
Bien que les bots aient une mauvaise réputation en ligne, tous ne sont pas malveillants. En fait, de nombreux services utiles qui utilisent un certain niveau d’automatisation utilisent des robots. Celles-ci sont complètement au-dessus du tableau et tant qu’elles sont ouvertes sur la pratique, ne devraient pas être empêchées de visiter des sites.
D’un autre côté, les «mauvais robots» peuvent être une présence indésirable. Ils peuvent accumuler des stocks ou extraire du contenu d’un site particulier. Cependant, étant donné que les bots représentent environ 40% de tout le trafic en ligne, il n’est pas facile de déterminer quels bots bloquer et lesquels autoriser. C’est là qu’intervient Bot Analytics de Cloudflare.
Sommaire
Mauvais robots
«À partir d’aujourd’hui, nous allons vous montrer les bots qui atteignent votre site Web», a expliqué Ben Solomon, chef de produit pour la gestion des robots chez Cloudflare.
«Vous pouvez voir ces robots avec un nouvel outil appelé Bot Analytics. C’est rapide, précis et chargé d’informations. Vous pouvez interroger des données jusqu’à un mois dans le passé sans décalage notable. Pour ce faire, nous avons exposé les données avec GraphQL et l’avons associé à la technologie de débit adaptatif (ABR) pour charger dynamiquement le contenu. Si vous avez déjà ajouté Bot Management à votre compte Cloudflare, Bot Analytics est inclus dans votre service. »
Boy Analytics se trouve sous l’onglet Pare-feu du tableau de bord Cloudflare. Les entreprises sans accès à Bot Management ne verront qu’un instantané de leur trafic de robots, mais cela devrait toujours être suffisant pour déterminer si les bots pullulent sur une page Web.
Les administrateurs de sites Web peuvent également définir leur propre seuil de bot pour déterminer le trafic automatisé qu’ils autorisent. Bien sûr, il n’y a pas de moyen infaillible d’empêcher tous les robots d’entrer, mais la définition de la bonne limite devrait garantir que plus de bande passante est donnée aux véritables visiteurs du site Web.