Outil de suivi à notre disposition
Le principal outil de suivi des requêtes est le fichier log de Apache. Ce journal ajoute une entrée à chaque fois qu'une ressource est sollicitée (html, image, js, css). Pour identifier l'origine de la requête, le webmaster peut analyser les adresses IP et l'User Agent qui y sont associés.Par contre, ces données ne permettent pas de savoir s'il s'agit d'un robot ou d'un humain qui demande à voir la page internet. En y réfléchissant, le serveur est forcément aveugle face à requête et l'identification du visiteur se fera du côté du navigateur internet.
Intercepter des évènements utilisateur
La question à se poser est: que fait un utilisateur en plus d'un robot lorsqu'il visite un site internet ?Pour économiser de la bande passante, les crawlers ont tendance à ne pas charger les ressources associées à une page internet. Donc on pourrait se dire, que si les images, les scripts JS ou encore les feuilles de style ne sont pas chargés, la requête provient d'un robot. Seulement voila, les robots comme GoogleBot par exemple chargent aléatoirement ces ressources et interprêtent même le code JS pour trouver les liens.
L'idée suivi dans le script qui va suivre est qu'un utilisateur bouge la souris pour faire défile le contenu d'une page internet.
/*
* Detecter les utilisateurs humains sur une page internet
*/
// lance la fonction au chargement du script
initUI_setListener();
/**
* Attache deux evenements au body
* @returns {none}
*/
function initUI_setListener() {
//Si la valeur est true (vrai), le listener sera automatiquement supprimé après son appel.
//Evenement pour les utilisateurs desktop
document.body.addEventListener("mousemove", initUI_handle, {once: true});
//Evenement pour les smartphone
document.body.addEventListener("touchmove", initUI_handle, {once: true});
console.log('attach');
}
/**
* Traiter le déclenchement de l'évènement
* @returns {undefined}
*/
function initUI_handle() {
//Retirer les event au listener
//inutile en théorie
document.body.removeEventListener("mousemove", initUI_handle, true);
document.body.removeEventListener("touchmove", initUI_handle, true);
console.log('detach');
//page id
var params='page_id=10';
//screen size
var width = document.documentElement.clientWidth;
var height = document.documentElement.clientHeight;
params += '&width=' + width + '&height=' + height;
//Envoyer la requete
$.ajax({
url: 'myXiti.php',
type: 'POST',
data: params,
dataType: "text",
success: function (response, status) {
/* alert(response);*/
},
error: function (result, statut, erreur) {
/* alert(result.responseText);*/
}
});
}
Le principe est que dès que la souris bouge sur la page, il s'agit d'un humain. Pour les tablettes et téléphones portables, il est préférable d'utiliser évènement touchmove qui correspond au touche sur un écran mobile. Cette solution n'est pas parfaite à 100% par contre elle permet de trier un minimum le trafic sur ses pages internet.
Le script est en test depuis plusieurs jours sur un site internet lancé récemment. ça a l'air de marcher ;)
Le but de ce script JS est d’expérimenter un cocon sémantique avec un peu de cloaking pour les robots. Les résultats devraient être visibles d'ici un mois ou deux, reste à vérifier que les visiteurs humains aient correctement aux liens dont ils ont besoin lors de leur navigation.