Pubcon 2014: приручение алгоритмов Гугла и выживание после шифрования запросов
7-9 октября юбилейная 15-я конференция Pubcon 2014 в Вегасе представила инновации и последние тренды в сфере оптимизации и соцмедиа.
Вице-президент по маркетингу Virante Джейк Бохалл разъяснял ситуацию вокруг поисковых запросов с помощью высшей математики, а именно теории хаоса – раздела, изучающего сложные системы, высокочувствительные к небольшим изменениям условий. В сфере поисковых запросов небольшие изменения могут приводить к заметным последствиям. Интернет можно назвать огромным массивом хаотично расположенных документов, который Гугл упорядочивает и структурирует. Очевидно, стоимость наполнения сайта – не та вещь, на которой стоит сильно экономить. Сегодня для продвижения в выдачах важно наполнение сайтов лучшим контентом для улучшения релевантности, размещение лучших ссылок для роста уникальности и авторитетности ресурса. В комплексном наполнении сайтов контентом важен контент, создаваемый как пользователями, так и признанными экспертами отрасли.
Поисковики с недавних пор стали делать менее доступными для веб-мастеров данные о запросах. По мнению президента Bruce Clay, Inc. Брюса Клея, сама идея недостаточно разумна. С одной стороны, оптимизаторы и вебмастера и так не имели полного доступа к поисковой статистике Гугла, с другой, эти данные неточны, с третьей – получить статистику и сейчас элементарно. Лет 6 назад в Гугле появилась строка «More details», с помощью которой можно было уточнить данные о поисковых запросах. Однако вся статистика поиска имеет погрешности и неточности, что показывает более детальный анализ. К примеру, Гугл выдает свои результаты на основании IP пользователей, их географического положения, различных реалий, соответствующих одним и тем же словам в разных местах, истории поисков пользователей и т. д., по-своему интерпретируя все эти данные. И даже ошибаться именно из-за них, так что выдача оказывается не соответствующей ожиданиям пользователя. По статистике, 20% ежедневных запросов пользователей – новые или как минимум не повторявшиеся с полгода, около 70% не полностью соответствуют ключевым словам, а в 54,5% случаев состоят из более 3 слов. Гугл оставил возможность найти информацию о запросах пользователей в Живом поиске, позволяющем видеть результат при вводе запросов. Живой поиск целиком основан на данных о самых актуальных запросах. Это позволяет перепроверять частотность запросов и узнать, какие слова употребляются чаще всего в аналогичных запросах и точнее определять семантическое ядро сайта. А в целом Брюс Клей советует составлять списки ключевых фраз, всерьез заниматься наполнением сайтов и целевых страниц контентом и молиться.
Источник:
Ещё рекомендуем прочитать:
Объясняем клиенту, почему комплексное продвижение сайта стоит «так дорого»
Качественный дизайн сайта
Ноу-хау продвижения: бесплатная реклама «соседей по портфелю»
Лучшие тренды и ноу-хау оптимизации – 2014
Что такое SEO и зачем оно вообще?
К списку статей |