четверг, 17 июня 2010 г.

Средства для веб-анализа. Серверные логи

Для сбора данных об аудитории сайта и её поведении на сайте существует несколько методов: серверные логи, javascript-тэги, т.н. beacons и сниффинг (обработка пакетов данных). Я не буду пытаться описать все указанные методы с их достоинствами и недостатками в одном посте – текста может получиться слишком много, и воспринять его за один раз может оказаться непросто.

Поэтому начну со сбора и анализа серверных логов.

Этот метод появился первым. Вообще, сбор и хранение серверных логов ведется в первую очередь для мониторинга корректной работы сайта, точнее, сервера на котором сайт живёт. Использование логов для учёта количества и качества аудитории сайта стало побочным продуктом.
Вкратце процесс сбора серверных логов выглядит так:
Пользователь вписывает URL сайта в адресную строку либо кликает по ссылке на сайт → Запрос на показ запрошенной страницы приходит на сервер →
Сервер принимает запрос, готовит запрошенную страницу для показа пользователю и записывает в лог параметры запроса пользователя (название страницы, IP-адрес, браузер и операционная система пользователя, дату и время запроса).

Для разбора и систематизации информации из серверных логов существует множество как платных, так и бесплатных программных продуктов. Первый такой коммерческий продукт появился ещё в 1994 году.

Всё, что нужно для начала работы в этом случае – это установить на сервер дополнительное ПО. Хорошему системному администратору для этого понадобится не более часа. Можно воспользоваться, например, Webalizer, AWstats или Analog– все три продукта бесплатны.

Удобство упомянутых продуктов в том, что они сортируют и показывают те данные, которые нужны для оценки аудитории, а не технические подробности работы сервера.

К преимуществам серверных логов, как инструмента веб-аналитики, можно отнести:
• возможность отслеживания визитов поисковых роботов. Эта возможность особенно полезна для новых только что запущенных сайтов. Людям, ответственным за поисковый трафик не надо ежедневно беспокоить системного администратора с вопросами: «Что у нас там с визитами роботов?»
• возможность хранить все анализируемые данные столько времени, сколько нужно. Все остальные продукты имеют ограничение на срок хранения данных. Плюс при миграции с одного продукта на другой сравнивать новые и старые данные становится совсем неудобно.
Минусы серверных логов:
• логи и их анализаторы не позволяют отслеживать просмотры кэшированных страниц. Если пользователь вернулся на главную страницу сайта, воспользовавшись браузерной кнопкой «Назад», повторный просмотр страницы засчитан не будет.
• через анализаторы логов крайне затруднительно получать какую-то информацию, выходящую за рамки базовых технических параметров (визиты, уникальные посетители, просмотры страниц , география, тип браузера и операционной системы). При огромном желании к анализатору можно «прикрутить» какие-то дополнительные надстройки. Но тогда уж лучше воспользоваться бесплатным решением с использованием javascript-тэгов.
• Через анализаторы логов невозможно отследить активность на сайте, не связанную с http-запросами (взаимодействие пользователя с объектами flash, ajax-формами и т.п.)

В сухом остатке, анализировать серверные логи при условии наличия продвинутых систем на базе javascript-тэгов, мне представляется делом сомнительным. За исключением отслеживания визитов поисковых роботов на начальном этапе существования сайта других потребностей я в этом инструменте не вижу.

Комментариев нет:

Отправить комментарий