Description
Data Collection Portal propose sous sa section Outils, un système de crawl nommé Tag Crawler, fait par nos équipes pour vérifier les hits générés au chargement d'URLs.
Utile pour identifier les erreurs, absences et améliorations de marquages sur des sections spécifiques de vos sites.
Les crawls sont listés par projet, montrant les résultats du dernier crawl dans un court résumé dans la page d'accueil de Tag Crawler.
Dans un projet, vous verrez tous les crawls listés qui ont utilisé la même configuration.
Aussi chaque crawl dispose d'un Crawl ID pour vous assurer de vous réferrer à la bonne session.
Création de crawl
Pour créer un projet de crawl, vous devez contacter nos services support ou votre chargé de compte.
Ils mettront en place le projet de crawl dans nos interfaces internes spécifiant la configuration requise.
Note
Pour aider nos équipes à créer votre crawl, assurez-vous de consulter les règles principales et prérequis de Tag Crawler.Règles principales
- Les URLs ne sont pas crawlées dans un ordre pré-défini
- Les crawls peuvent être planifiés à l'avance et réalisés à tout moment
- Les crawls peuvent être restreints à un dossier spécifique dans votre chemin d'URL
- Les iframes seront également crawlées et comptées dans vos résultats
- Tag Crawler ne vérifie que les hits initiés au chargement de la page (pas de clic ou de complétion)
- Les plateformes connectées peuvent être crawlées mais requièrent une étude par nos équipes sur l'authentification
- Les crawls ne peuvent s'appliquer qu'à des sites puisqu'ils requièrent des URLs
- Pour permettre l'accès à Tag Crawler à votre site, assurez-vous avec vos équipes qu'aucun whitelisting n'est nécessaire
Prérequis
- Quelle est l'URL de départ (première URL à crawler) ?
- Quel est le numéro de site ?
- Le projet doit-il crawler tous les sous-domaines ou un seul ?
- Le site s'appuie-t-il sur un CDDC ?
- Le site utilise t-il un pixelPath ?
- Le crawl doit-il ignorer les QueryStrings ?
- Le crawl doit-il ignorer les redirections ?
- Le crawl doit-il simuler un appareil mobile ?
- Le crawl doit-il suivre un sitemap ? Si oui, doit-il le suivre strictement ?
- Quelle est la profondeur maximale du crawl (dossiers du chemin) ?
- Quel est le nombre maximal d'URLs à crawler ?
Résultats
Une fois le crawl effectué par nos équipes, vous serez informé des résultats dans l'interface.
Voici les informations associées au crawl :
- Nombre d'URLs crawlées
- Nombre d'URLs marquées
- Ratio de marquage
- Résultats par URL comprenant
- Ordre (ex 3.2 : l'URL a été crawlée en 3ème et vous regardez la 2nde tentative de crawl)
- URL crawlée
- Type de hit détecté (d'autres hits peuvent être initiés automatiquement au chargement de la page)
- Libellé (nom de l'événement détecté)
- Site (numéro de site)
- URLs marquées (présente si la page est marquée ou non)
Actions
L'interface de résultats de Tag Crawler propose certaines interactions avec les résultats.
Filtrer
Vous pouvez filtrer les résultats sur les colonnes en cliquant sur l'icône 3 points.
Trier
Vous pouvez trier les résultats sur les colonnes en cliquant sur l'entête ou sur l'icône 3 points.
Chercher
Vous pouvez isoler des URLs, libellés, ou types d'événements spécifiques, en tapant des mots spécifiques dans la barre de recherche au dessus du tableau de résultats.
Afficher seulement les pages non marquées
Vous pouvez isoler les pages non marquées en cliquant sur le bouton dédié au dessus à gauche du tableau de résultats.
Télécharger les résultats
Vous pouvez cliquer sur le bouton dédié, au dessus du tableau de résultats pour générer un fichier CSV avec les résultats du crawl.
Consulter les règles de crawl
En cliquant sur les bouton Règles du crawl, vous pouvez voir toute la configuration mise en place pour le projet.