вторник, 18 мая 2010 г.

Зачем тратиться на веб-аналитику?



Летом 2001 года я стал редактором интернет-газеты Lenta.ru. Работа в штате популярного онлайн-СМИ, офис которого в ту пору располагался в одном здании с издательским домом «Афиша» завлекла меня с первых дней. Писать новости, узнавая в процессе кучу интересных вещей, оказалось очень здорово.
Среди всего прочего привлекательной была возможность быстро оценить, насколько интересной показалась читателям написанная новость. Для этого использовалась некая внутренняя статистика «Ленты», в которую можно было посмотреть и увидеть, сколько человек прочитали твою новость за последние полчаса. В 2001 году абсолютным хитом оказалась новость про смерть Осамы бин Ладена – её прочитали аж 723 человека. Новость, конечно, оказалась ложной, но ажиотаж вызвала всё равно.
Для того, чтобы понимать, насколько хорошо «Лента» выглядела на фоне своих конкурентов, любопытные редакторы смотрели в рейтинг «Рабмлер Топ 100».  И радостно потирали руки, глядя сколько хитов и уникальных хостов собирала родная интернет-газета на фоне конкурентов из РБК и «Газеты.ру».  Этими цифрами и ограничивалось понимание того, как «Лента» работает, для большинства редакторов. Ну еще периодически шеф-редакторы громко говорили: «Нарисуйте «уши» для «подлодки «Курск». Это значило, что кто-то забывал выполнять обязательную процедуру по созданию маленького баннерочка, благодаря которому читатели осваивали на несколько новостей больше.
Редакторы исправно писали, рекламодатели платили деньги, pr-менеджеры разных компаний смотрели в «Рамблер Топ 100» и восхищенно говорили «Какая у вас аудитория!», не сильно озадачиваясь, какая доля этой аудитории заинтересуется услугами и товарами этих компаний.

В общем в 2001 году анализ работы сайта для очень большого числа участников медийного рынка ограничивался «Рамблером Топ 100» или каким-нибудь похожим рейтингом. Рекламные агентства, конечно, уже пользовались более продвинутыми системами анализа типа Spylog. Но людей, понимавших зачем нужен этот самый Spylog, можно было пересчитать очень быстро. Что касается меня, то я в ту пору ни от кого не слышал термина «веб-аналитика».
О  том, что такое веб-аналитика, и каких целей можно добиться с её помощью, я впервые услышал в апреле 2005 года на семинаре рекламного агентства Promo.ru. Докладчиком выступала директор по маркетингу этого агентства Елена Молчанова. Правда, её доклад назывался «Интернет-маркетинг», но речь в нём шла в первую очередь о веб-аналитике. На примере того же Spylog, Елена подробно рассказала, как можно понять, какая доля посетителей отдельно взятого сайта регулярно ходит на «Яндекс».
Спустя три месяца после первого знакомства с веб-аналитикой я вышел на работу в издательский дом «Собака», который в ту пору сильно озаботился развитием интернет-направления. Среди всех задач, связанных с развитием этого направления, оказалась , конечно, и веб-аналитика. Мы купили услуги компании Spylog, составили в Excel некую табличку с базовыми показателями (уникальные посетители, количество просмотренных страниц, ядро аудитории) и раз в месяц кратко обсуждали их с руководством. Руководство задавало вопросы «почему в прошлом месяце этот показатель был выше?» я давал краткие интуитивные пояснения в духе «Ну вот «Яндекс» в прошлом месяце дал больше переходов» и на этом анализ заканчивался.

В 2007 году мы плавно отказались от услуг Spylog – сервис явно испытывал какие-то проблемы с нагрузкой, а на фоне бесплатного Liventernet.ru с нашими потребностями в веб-анализе и вовсе выглядел напрасным поглотителем денег. Чуть позже, в свои инструменты для анализа я включил Google Analytics. В этом продукте самой востребованной функцией у нас коллегами и руководством оказалось «Наложение данных на сайт», всё остальное мы странным образом игнорировали. Параллельно коллеги из Лондона активно призывали нас купить продукт HBX, который использовался на всех англоязычных сайтах Timeout. Таким образом, данные об аудитории мы получали аж из 4 источников: Liveinternet.ru, HBX, Google Analytics и ещё TNS Web Index. Пытаясь привести все цифры к единому знаменателю, мы придумывали поправочные коэффициенты, сводили это всё в одну таблицу и с завидной частотой разбирали ошибки, возникавшие из-за неправильных поправочных коэффициентов.
В таком усложненном формате веб-аналитика для меня и существовала до весны 2009 года. В один из мартовских дней в поисках каких-то решений по веб-дизайну я наткнулся на блог американского веб-аналитика Авинаша Кошика «Occams Razor». И понял, что вкладывал в понятие «веб-аналитика» очень странный смысл. Выяснилось, что веб-аналитика – это не агрегация данных из бесконечных источников и не выписывание цифр в экселевскую табличку с комментариями «получилось как-то так». Веб-аналитика – это средство, которое сейчас позволяет с точностью до рубля оценить эффективность средств, потраченных на разработку сайта и его продвижение.
Веб-аналитика даёт ответы на вопросы:
  • Работает ли ваш сайт, так как вам представлялось или на самом деле всё обстоит сильно хуже/лучше?
  • Как можно развернуть аудиторию в свою сторону?
  • Какая аудитория вообще не стоит потраченных на нее денег?
Список вопросов можно дополнять, но указанные три кажутся мне наиболее значимыми. Как показывают реалии, огромное количество людей и сейчас оценивают эффективность своих интернет-усилий, используя странные поправочные коэффициенты или просто «Рамблер Топ 100».
Очень надеюсь, что мне хватит сил и терпения написать ещё не один пост про веб-аналитику и развернуть в сторону разумных затрат и создания хороших сайтов не одного сайтовладельца или его сотрудников.