Derniers passages de robots au 18/01/26

nom accès à Pays
IP 216.73.216.*** 1 page ÉTATS-UNIS
bingbotcrawler1 page ÉTATS-UNIS
IP 216.73.216.*** 1 page ÉTATS-UNIS
IP 216.73.216.*** 2 pages en 8 min 19 s ÉTATS-UNIS
DotBotcrawler2 pages en 30 s ÉTATS-UNIS
IP 93.183.94.195  Spammeur3 pages en 1 s RUSSIE, FÉDÉRATION DE
IP 216.73.216.*** 2 pages ÉTATS-UNIS
IP 216.73.216.*** 5 pages en 11 min 53 s ÉTATS-UNIS
IP 109.248.204.162  Spammeur3 pages en 1 s RUSSIE, FÉDÉRATION DE
IP 216.73.216.*** 2 pages en 3 min 48 s ÉTATS-UNIS
IP 205.210.31.***crawler1 page ÉTATS-UNIS
IP 216.73.216.*** 1 page ÉTATS-UNIS
IP 216.73.216.*** 1 page ÉTATS-UNIS
Yandexsearch engine1 page RUSSIE, FÉDÉRATION DE
Yandexsearch engine1 page RUSSIE, FÉDÉRATION DE
Googlebotcrawler1 page ÉTATS-UNIS
IP 216.73.216.*** 1 page ÉTATS-UNIS
IP 141.94.194.132 1 page FRANCE
googleusercontent robot 1 page ÉTATS-UNIS
IP 216.73.216.*** 2 pages en 4 min 50 s ÉTATS-UNIS
534 641 visites de robots identifiés
environ 69 par jour en 2026
61 aujourd'hui à 17:46 (+6 visiteurs)
zombies : 1 visite / 36 requêtes - spammeurs : 5 visites

D'où proviennent ces informations ?

Elles ont été obtenues à partir de $_SERVER["HTTP_USER_AGENT"] -$HTTP_USER_AGENT avec PHP 3-, $_SERVER ["QUERY_STRING"], $_SERVER ["SCRIPT_NAME"] et gethostbyaddr().
Elles sont faussées par le filtre parfois mis en place par l'hébergeur (free.fr).
Dans les statistiques du site, les robots ne sont pas considérés comme des visiteurs, le navigateur et le pays d'origine qu'ils annoncent sont ignorés.
S'ils consultent plusieurs pages, ils ne sont pris en compte qu'une fois (sauf s'ils ne reviennent qu'après plus de 10 minutes - plus de 30 minutes pour Google Desktop, semrush, Bytespider).
La liste des visites est indicative car elle suppose une connexion parfaite avec MySQL, ce qui n'est pas le cas pour ce site. Mais l'hébergement est gratuit, alors ...

Les robots représentent au moins 85 % des visites en 2026 répartis ainsi :

Détection du robot

Cette routine est commentée dans la page sur les pièges à robots.
Il est nécessaire de stocker les identificateurs des autres visiteurs pour compléter la liste des robots qui fréquentent le site et celle de leurs "User Agents".

La base de données

Voici la structure de la table robots que j'utilise :
#
# Structure de la table `robots`
#
CREATE TABLE `robots` (
  `heureacces` int(10) unsigned NOT NULL default '0',
  `heurearrivee` int(10) unsigned NOT NULL default '0',
  `nom` varchar(64) NOT NULL default '',
  `dernierepage` varchar(30) NOT NULL default '',
  `nombrepages` mediumint(8) unsigned NOT NULL default '0',
  KEY `heureacces` (`heureacces`),
  KEY `heurearrivee` (`heurearrivee`),
  KEY `nom` (`nom`),
  KEY `nombrepages` (`nombrepages`)
) TYPE=MyISAM;

En fonction de la place occupée par chaque champ chez votre prestataire, choisissez double ou datetime pour les heures, double ou int pour nombrepages, si nécessaire augmentez le nombre de caractères pour dernierepage.

Mise à jour de la base de données

Affichage des données

Nous disposons donc du nom du robot, de l'heure d'arrivée, de l'heure de la dernière page lue et du nombre de pages lues.
S'il n'y a qu'une page et des heures différentes, c'est que la page a été actualisée.
J'ai choisi d'afficher le nombre de pages lues et le temps passé à les lire.


Voilà pour le principe, à vous de voir ce que vous voulez afficher ou calculer.

Un script du même type est maintenant disponible ici

hautHaut de la page

Avec javascript

W3C XHTML 1.0
W3C CSS