Начальство интересуется какие страницы посещают пользователи во время работы? Ну конечно никаких личностей, просто какая страница самая популярная? …её и закроем…
Все ходят в инет через SQUID и запросы фильтруются режиком.
Ставим парсер lightsquid
Для графиков буден нужен перловый GD
1 |
yum install -y perl-GD perl-CGI |
1 2 3 4 5 6 |
cd /var/www/html get http://sourceforge.net/projects/lightsquid/files/lightsquid/1.8/lightsquid-1.8.tgz/download tar zxvf lightsquid-1.8.tgz mv lightsquid-1.8 lightsquid cd lightsquid chown -R apache:apache * |
Нужно добавить в /etc/httpd/conf/httpd.conf
1 2 3 4 |
<Directory "/var/www/html/lightsquid"> AddHandler cgi-script .cgi AllowOverride All </Directory> |
и добавить парсер в cron
1 2 |
crontab -e 0 * * * * /var/www/html/lightsquid/lightparser.pl |
Смотрим логи на http://адрес/lightsquid
Ещё один парсер логов SQUID – SARG
Буду ставить 2.3.2, так как в этой версии работает сортировка по количеству трафика
1 2 3 4 5 6 7 |
get http://downloads.sourceforge.net/project/sarg/sarg/sarg-2.3.2/sarg-2.3.2.tar.gz?r=http%3A%2F%2Fsourceforge.net%2Fprojects%2Fsarg%2Ffiles%2Fsarg%2Fsarg-2.3.2%2F&ts=1329289948&use_mirror=citylan tar zxvf sarg-2.3.2.tar.gz cd sarg-2.3.2 chmod +x configure ./configure make make install |
Для удобства можно воспользоваться модулем webmin для управления SARG