CrawlTrack 3.3.2 fr
CrawlTrack est une application libre (Licence GNU GPL), qui permet de suivre les passages des robots des moteurs de recherche sur son site internet.
Les données sont présentées sous forme de tableau et de graphiques qui permettent un très bonne lisibilité des informations.
Ce script est écrit en php et utilise une base de donnée MySQL.
Fonctions - C'est le seul script de détection de robots à avoir une base de données de plus de 900 robots de moteurs de recherches, mise à jour une fois par semaine par un simple clic. - Il permet le suivi multisites (même hébergés sur des serveurs différents) avec une seule installation. - Il permet une gestion avancée des droits des utilisateurs, idéal pour un hébergeur qui veux donner l'accès aux statistiques à ces clients. - Le moteur de recherche de Crawltrack permet de multiples interrogations de la base de données statistiques. - La gestion des données est optimisée et la taille de la base de données est réduite. - Détection et blocage des tentatives de piratage. Il faudra changer le tag CrawlTrack sur vos pages pour profiter de cette nouvelle fonction.
Installation - Pour installer CrawlTrack vous n'avez besoin d'aucune compétences techniques particulières, il suffit d'avoir un hébergement avec php (version >=4.3.0 avec GD2) et une base MySQL. L'installation est complètement automatisée.
Pour en savoir plus, une documentation est en ligne pour le logiciel CrawlTrack.
Liste des Robots détectés (1244 robots) - AbachoBot, ABCdatos, Acoon Robot, Aesop, Aibot, Alexa, Altavista, Amfibibot, Amidalla, Antibot, ArchitextSpider, Ask Jeeves/Teoma, Baiduspider, Blitzsuche, Blogbot, Boitho, Bruinbot, CipinetBot, Clushbot, Cobion, Cortina, DataFountains, Drecombot,Earthcom, Elsop, EuripBot, Exabot, FAST-WebCrawler, GenieKnows, GeonaBot, Goblin, Google-Adsense, Googlebot, Google-Image, Google-WAP, Heritrix, InelaBot, Jayde Crawler, LinkWalker, Lockstep Spider, Lycos_Spider, Mariner, Mercator, MSN Bot, Najdi, NaverBot, NokodoBot, OpidooBot, OpenWebSpider, Polybot, Pompos, Psbot, QuepasaCreep, Scrubby, Seekbot, Slurp Inktomi (Yahoo), Teoma, Toutatis, TygoBot, VoilaBot, WiseGuys, Zao Crawler, ZyBorg (LookSmart), suite de la liste des robots détectés par le logiciel CrawlTrack.
CrawlTrack existe pour l'instant en Français, Anglais, Espagnol, Allemand, Turc, Hollandais et Russe.
Nouveautés & Corrections
Version 3.3.2 du 29/04/2012- Aol et Yandex sont ajoutés à la liste des moteurs de recherche faisant l'objet d'un suivi particulier. - Possibilité de limiter l'affichage au(x) moteur(s) de recherche sélectionné(s) sur les pages mots clefs et pages d'entrées. - Ajout de la courbe de tendance des 7 derniers jours sur le graphe hit/heure. - Modification de la liste des robots principaux (regroupé par moteur de recherche). - Le temps de validité du cookie de connexion est porté à 30mn. - Affichage d'un message si le PC de l'utilisateur bloque les cookies et donc empêche le login. - Limitation aux 100 premières pages de l'affichage pour les pages vues par les robots pour éviter le time-out. - Affichage d'un message d'erreur si l'API Google est inaccessible (page keywordposition). - Correction de bug: Caractères spéciaux dans login et mot de passe. - Correction de bug: htmlspecialchars sur referer (sécurité) Version 3.3.0 du 11/09/2011- Prise en compte des visiteurs utilisant Internet Explorer 9. - Les pages en erreur 404 ne sont plus listées dans le tableau des page vues. - Modification pour éviter le blocage du Widget Alexa par CrawlProtect quand l'url du site a été saisie avec http:// - Evolution du filtre lié au nombre de pages vues (200 au lieu de 50).
|
|