-Поиск по дневнику

Поиск сообщений в Olga21

 -Подписка по e-mail

 

 -Постоянные читатели

 -Статистика

Статистика LiveInternet.ru: показано количество хитов и посетителей
Создан: 20.10.2009
Записей: 146
Комментариев: 8
Написано: 161





Оптимизируем сниппеты – увеличиваем переходы из Топа

Четверг, 24 Апреля 2014 г. 18:11 + в цитатник
Если ваш сайт находится в Топе, но вы недовольны его посещаемостью – обратите внимание на сниппеты, которые показываются вместе со ссылкой на ваш сайт в результатах выдачи, и сравните их с соседями по Топу. Возможно, сниппеты конкурентов более привлекательны, чем ваш, и поэтому на ваш сайт просто не кликают. И это, кстати, может быть одной из причин понижения сайта в выдаче за плохой ПФ.

Однажды мне удалось практически удвоить CTR по одному из запросов, просто поменяв сниппет в выдаче. Сегодня я расскажу, как заставить сниппет работать на посещаемость вашего сайта.
Что такое привлекательный сниппет?

Сниппет – это краткое описание содержания вашей страницы. Просматривая название сайта (тайтл) и текст под ним (сниппет), пользователь решает, стОит ли посетить ваш сайт или нет. Соответственно, что б решение было принято в вашу пользу, сниппет должен:
а) содержать краткий ответ на запрос пользователя – очевидность того, что запрашиваемая информация точно есть на вашем сайте, и время на его посещение не будет потрачено зря;

б) стимулировать посетителя перейти именно на ваш сайт – информация о каком-либо преимуществе компании (или сайта) привлечет больше пользователей, чем абстрактная информация. Например, сравните сниппеты у сайтов на 3 и 4 местах в Яндексе по запросу “доставка пиццы”.

snippet

В сниппете у сайта на 4 месте указаны сразу 2 преимущества доставки, которые предлагает компания – доставка круглосуточная и бесплатная. У сайта на 3-м месте сниппет более длинный, но менее информативный – уверена, что желающих заказать пиццу с бесплатной доставкой будет на порядок больше, чем желающий заказать пиццу, сохраняющую традицию настоящей итальянской кухни.

Иными словами, если у вас есть привлекательное УТП, особая скидка, бесплатная доставка, уникальная информация (если сайт информационный) – постарайтесь, что б об этом упоминалось в вашем сниппете.
Как помочь поисковику отображать нужный вам сниппет

В Google все довольно просто – в большинстве случаев в качестве сниппета выдается информация, указанная в тэге description. Длина сниппетов в Google – до 160 символов с учетом пробелов; пропишите в description информативный читабельный текст с ключевыми словами длиной в 160 символов – это и будет ваш сниппет.
Как оптимизировать сниппет в Яндексе?

Яндекс игнорирует description (слышала, что есть исключения), и формирует сниппет из текста самой страницы. Длинна сниппетов в Яндексе – 240 знаков (с пробелами), и что б “скормить” туда нужный Вам фрагмент текста, этот фрагмент нужно оптимизировать под следующие требования:

1) Плотность нужного ключевого слова в этом фрагменте должна быть самой высокой по сравнению с остальным текстом. Помните, что длина сниппета – 240 знаков. Грубо говоря, в словах из 240 знаков этого фрагмента плотность нужной фразы должна быть выше, чем в любом другом пассаже, состоящем из 240 знаков. Если слова запросов употребляются в тексте далеко друг от друга, сниппет может состоять из обрывков предложений.

2) Ключевые слова в этом фрагменте должны употребляться в той же форме, что и в запросе (в большинстве случаев это именительный падеж). Иные формы можно употреблять в случаях, когда в остальном тексте отсутствуют другие фрагменты со всеми словами запроса.

3. Формулировка же самого предложения в этом фрагменте должна по максимуму отличаться от title. Иными словами, оптимизируемый для сниппета фрагмент должен не повторять, а дополнять title, и пересекаться с ним только ключевыми словами.

4. В предложениях до и после этого фрагмента не должно быть ключевых слов, иначе есть большая вероятность, что Яндекс оторвет для сниппета кусок соседнего предложения и нарушит эффект читабельности. Чем короче соседнее предложение, тем бОльше вероятность его попадания в сниппет. Поэтому отделяйте фрагмент, оптимизируемый под сниппет, длинными предложениями без ключевых слов. Либо же пишите красивые короткие предложения, которые в случае попадания в сниппет не нарушат его информативности.
Мой опыт

Если я хочу подставить в сниппет нужный мне текст, я пишу (или оптимизирую готовый) абзац примерно на 240 слов, в котором употребляю все слова запросов в такой же форме, как и в самом запросе (но не обязательно в том же порядке). Соседние предложения до и после этого абзаца я удлиняю до 150-190 знаков, и убираю из них любые употребления ключевых слов. Если я определенно не хочу, что б в сниппет попадали обрывки из других предложений текста, я стараюсь везде, кроме нужного мне пассажа, употреблять ключевые запросы в других словоформах (склонения, числа).

С ув., Оптимизаторша.

P.S. Очень подробно про оптимизацию сниппетов для Яндекса и для Google.
http://optimizatorsha.ru/master-classes/snippet/

Как продвигать сайты в персонализированном поиске

Четверг, 24 Апреля 2014 г. 18:08 + в цитатник
Прошло два месяца с момента появления персонализации в Яндексе, и большинство владельцев сайтов и оптимизаторов особых изменений не ощутили. Никто из вебмастеров не жалуется на резкие скачки и падение трафика, никто из клиентов не требует срочного перехода от оплаты за позиции на какую-то другую схему. Шум в блогах и на SEO-форумах поутих, оптимизаторы вернулись к своим ссылкам и мета-тегам.

Тем временем мы поставили ряд экспериментов над новым алгоритмом и получили данные об условиях и принципах персонализации. Мы убедились в том, что некоторые приемы оптимизации позволяют повысить видимость сайта в индивидуальной выдаче многих пользователей и тем самым поднять трафик из Яндекса. Полный текст исследования, которое мы озвучили на Allintopconf.ru можно почитать на блоге Seolib.ru (осторожно, много букв!). Здесь я публикую только выводы, имеющие практическое значение.
Как успешно продвигать сайт в персонализированной выдаче?

1. Повышайте кликабельность сниппета.
Согласно результатам исследования страницы по которым пользователь кликает чаще, показываются в его персональной выдаче на первых местах (быстрый доступ к любимым сайтам). Если же пользователь упорно пропускает сайт и не кликает на него, он опускается ниже (в пределах Топ-10). Поэтому сейчас сниппет важен еще больше, чем раньше (о том, как повысить CTR сниппета, читайте тут и тут.

2. Не давайте пользователю вернуться в выдачу.
Согласно результатам экспериментов, если после перехода на сайт в течение нескольких секунд пользователь возвращается обратно к результатам поиска, в его персонализированной выдаче этот сайт исчезает из пределов видимости (иногда не находится и в Топ-50). Если вы не сумеете удержать большинство посетителей на сайте – можете прощаться с трафиком.

Самый правильный способ заинтересовать пользователя – дать релевантный ответ на его запрос. К сожалению, в большинстве случаев посадочная страница, над которой поработал оптимизатор, скорее отпугивает посетителя, чем привлекает. Учитесь угадывать мысли и желания пользователей и делать такие страницы, которые эти желания исполняют.

Если вы заметили, что в течение двух последних месяцев у вашего сайта в базовой выдаче позиции не изменились, но при этом посещаемость просела, – обратите внимание на сниппеты и отказы. Возможно, из-за плохих сниппетов или большого количества отказов сайт потерял позиции в персональной выдаче многих пользователей.

3. Максимально расширяйте семантическое ядро.
Эксперименты показали, что эффективные переходы из базовой выдачи по одним запросам приводят к повышению видимости в персонализированной выдачи по другим. Под эффективными я имею в виду такие переходы, после которых пользователь не возвращается в выдачу через несколько секунд.

Например, ваш сайт по запросам “поздравление на 14 февраля”, “пожелания на 23 февраля” и “тосты на юбилей” в базовой выдаче находится в первой десятке, а по запросу “поздравление на 8 марта” – на второй странице. Если по первым трем запросам пользователь выберет ваш сайт, то в его персональной выдаче по запросу “поздравление на 8 марта” он будет показываться в пределах Топ-5. Чем шире семантическое ядро, тем больше вероятность, что одни запросы будут подтягивать за собой другие в персональной выдаче.

Обратите внимание, что расширять ядро нужно только за счет тех запросов, которым ваш сайт действительно релевантен. В продолжение приведенного выше примера – можно добавить в семантику запросы “поздравление на день рождения”, “прикольные пожелания в стихах”, “тосты с годовщиной свадьбы” и т.д, но не стоит добавлять запросы типа “подарок на день рождения”, “подарок на 8 марта” и т.д., если ваш сайт ничего не продает. Переходы по таким запросам приведут к большому количеству отказов, а это может дать обратный эффект (см. пункт 2).

4. Продвигайте новые сайты по запросам из 3 и более слов.
Как показали результаты нашего исследования, чем меньше слов в запросе, тем больше процент персонализации выдачи. В процессе экспериментов для запросов из одного слова персонализация сработала в 99% случаев, для двухсловных – в 84%, для многословных (3 и больше слов) – только в 34%. Для однословников персонализация включалась даже тогда, когда не было явной связи запроса с историей пользователя.

В персональной выдаче по запросам из 2-3 слов пользователю показываются сайты, которые уже успели завоевать его доверие, новому неизвестному сайту “засветиться” по таким запросам достаточно сложно. Поэтому продвижение новичков лучше начинать с многословных запросов, выдача по которым меньше подвержена персонализации.

5. Используйте комплексные метрики для оценки эффективности продвижения.
Клиенту вы можете отчитываться как угодно – по позициям, трафику, выполненным работам. Но для себя вы должны мониторить все доступные метрики, иначе рискуете пропустить важные моменты. Например, если позиции у сайта в норме, но переходов нет, – нужно искать причину в сниппете и устранять ее, иначе скоро вы начнете терять трафик. Если и позиции, и переходы в норме, но процент отказов превышает средний показатель по вашему сегменту, – пора бить тревогу, так как вы можете терять трафик и заказы из персонализированной выдачи.

Очевидно, что с появлением персонализации пользовательские факторы стали еще важнее. Немного странно читать выводы коллег из другой известной компаний, что основной фактор – это по-прежнему ссылки. Считаю, что главными инструментами оптимизатора уже давно должны быть не ссылочные биржи и агрегаторы, а голова, руки и Google Analytics / Я.Метрика, иначе эффект от работы будет очень краткосрочным.

Полный текст исследования читайте тут.

http://optimizatorsha.ru/yandex/prodvigenie-personalizaciya/#more-3608

Как написать статью под НЧ запросы

Вторник, 22 Апреля 2014 г. 17:45 + в цитатник
Ничего нового в том, что я скажу, что большинство целевого трафика сайты получают именно по НЧ (низкочастотным запросам), нет. Но, многие продолжают пренебрегать этими запросами и пытаются продвигать сайты только по ВЧ или СЧ ключевым словам. Многие, не рассчитав бюджет и конкуренцию по запросу вкладывают средства в продвижение ВЧ запросов, а страницы то по этим запросам в упор не двигаются в топы. В результате – впустую потраченные деньги и время, фразы «денег в интернете нет» и сайт без трафика.

Как написать статью под НЧ запросы

Продвигать НЧ запросы можно и нужно, так как продвигать их легко по причине низкой конкуренции, а трафик они приносят именно целевой, а это нам и надо. Давайте рассмотрим на простом примере.

Допустим, вы продаете хомячков в Новосибирске и продвинули страницу по ВЧ запросу «хомячки». Вы потратили много денег на продвижение, в результате чего таки попали в топ по этому запросу и на ваш сайт заходят люди с поисковых систем. Кого-то интересуют просто фото хомячков, кто-то хочет узнать виды, болезни и т.д. И только какая-то часть из этих людей хочет купить хомячков, а тех, кто хочет купить хомячков именно в Новосибирске совсем мало. Так стоит ли тратить средства на продвижение ВЧ запроса, если можно за гораздо меньшие средства продвинуть запрос «купить хомячков в Новосибирске», особенно если у вас ограниченный бюджет?

Так, о необходимости продвижения сайта под НЧ запросы я вас убедил, теперь перейдем непосредственно к теме – как написать статью под НЧ запросы. Я люблю делать это по следующей схеме: заголовок поста оптимизирую по СЧ запрос, либо под трафиковый НЧ (НЧ запросы ведь разные бывают по количеству запросов). Допустим, заголовок нашей статьи называется «купить ссылки» (СЧ запрос).

Заходим на Вордстат и вводим этот запрос. Мы увидим приблизительно следующую картину:

Как написать статью под НЧ запросы

Начиная с запроса «купить ссылки на сайт» все последующие запросы – НЧ, т.е. именно то, что нас интересует. Поступаем следующим образом: выбираем 3,4, 5 или больше НЧ запросов из списка и при написании статьи употребляем их в тексте статьи. Статьи мы оптимизируем под запрос «купить ссылки» (сделайте плотность этого ключевого слова 2-3%) и добавляем в текст подобранные НЧ запросы, достаточно даже по одному разу.

Далее продвигаем страницу по запросу из заголовка (это основной запрос и основную часть бюджета тратим именно на него), также можно купить ссылок с анкорами, в которых включены наши НЧ запросы. Когда страница продвинется по основному запросу («купить ссылки»), она подтянет за собой и НЧ запросы, как право, они попадают в топ практически самостоятельно.

Все, вот и весь секрет написания статьи под НЧ запросы. Статьи, оптимизированные таким образом, можно написать на заказ, а можно писать бесплатно – для продвижения своих проектов.

P.S. Эту статью я тоже оптимизировал под НЧ запросы. Внимательно посмотрите и все увидите. Удачи в продвижении ваших проектов!

http://moipost.ru/blog/kak_napisat_statju_pod_nch_zaprosy/2010-12-17-113

Как увеличить CTR сайта в поисковой выдаче

Вторник, 11 Марта 2014 г. 15:58 + в цитатник
Всем известно, что чем выше ранжируется ваш сайт, тем больше переходов на страницы совершают пользователи. Однако, позиция сама по себе не является единственным фактором, влияющим на (CTR) – коэффициент кликов. Перед тем как выбрать наиболее подходящую страницу в поисковой выдаче, большинство пользователей учитывают несколько вещей.

Неудачная попытка привлечь внимание пользователя может привести к низкому CTR и небольшому объему поискового трафика. Поговорим о 7 способах, которые помогут максимизировать CTR вашего сайта в поисковой выдаче, а соответственно увеличить поисковый трафик.

1. Пишите заинтересовывающие и содержательные заголовки

Многие SEOшники склонны к переоптимизации заголовков страниц для того, чтобы добиться лучшего ранжирования. При этом к сожалению, качество заголовков страдает, они становятся похожими на спам и не релевантными для пользователя. В результате этого, многие пользователи стараются не переходить на данные страницы и CTR падает. Для увеличения CTR заголовки должны быть короткими (64-70 символов), содержательными и в то же время они должны содержать определенное количество ключевых слов и привлекать внимание пользователя. Еще один способ увеличить CTR – это включить в конец заголовка название сайта. Это очень полезно, когда бренд сайта известен и ему доверяют пользователи.

[warning]Ниже вы можете наблюдать пример того, как не должен выглядеть заголовок сайта:

[/warning]

2. Оптимизируйте мета-тег описания (description)

Мета-тег description должен содержать основные ключевые слова страницы и в то же время он должен кратко описывать ее содержание. Добавление в данный мета-тег призвания к действию, может значительно улучшить CTR. И последнее, но не менее важное, мета-тег description должен содержать такую информацию, которая бы привлекала внимание пользователей, но не отвечала на их вопросы напрямую.

3. Использование развернутых сниппетов

Позиция большинства поисковиков такова: чем больше информации предоставляется в сниппетах, тем легче пользователям найти подходящую страницу в поисковой выдаче. В результате, они стараются предоставить дополнительную информацию о сайтах в поисковой выдаче, используя развернутые сниппеты. Cниппеты предоставляют больше данных, чем в стандартной поисковой выдаче, включая сюда и рейтинги, и адреса, и даты и многое другое. В связи с тем, что развернутые сниппеты больше, у них больше шансов привлечь внимание пользователей, а значит и повысить количество кликов.

4. Использование быстрых ссылок

Для простоты навигации по сайту, поисковики в своей выдаче под описанием сайта выводят другие ссылки с этого же сайта – быстрые ссылки. Быстрые ссылки обычно выводятся в зависимости от релевантности поискового запроса пользователя ниже самых релевантных и трастовых ресурсов. Быстрые ссылки в сниппете вашего сайта помогут вам увеличить CTR, так как они не только привлекают внимание пользователей, но и улучшают навигацию по сайту.

быстрые ссылки в гуглВебмастера практически никак не могут контролировать быстрые ссылки, так как вычисляются они автоматически по алгоритмам. Повлиять на быстрые ссылки можно 2 способами: первый – это заблокировать все нерелевантные ссылки в панели вебмастера поисковика и второй – это создать четкую внутреннюю структуру сайта.

Ещё, полезную информацию о быстрых ссылках можно найти в сервисе «Яндекс.Вебмастер» Увидеть быстрые ссылки своего сайта в панели Яндекс.Вебмастер – “Сайт в результатах поиска -> Быстрые ссылки”

5. Навигация “хлебные крошки”

“Хлебные крошки” – это вид навигации, который позволяет пользователю видеть его положение на сайте, показывая ему весь путь от главной до страницы нахождения. Поисковики могут определять такую навигацию и выводить ее в поисковой выдаче. В таком случае, вместо того, чтобы показывать полную ссылку страницы, поисковики выводят весь путь до нее, показывая все категории и подкатегории. “Хлебные крошки” определяются поисковиками автоматически.

6. Использование социальных данных

В стат “Анализ Google +1: Что ожидать?” речь шла о том , что, используя социальные данные, Google пытается добавить своей поисковой выдаче социальный оттенок. Если пользователь залогинен в Google, то в поисковой выдаче он может видеть количество поставленных +1 или ретвиттов. Сделайте весь контент на вашем сайте доступным для распространения пользователями и вы почувствуете значительный приток трафика и увеличение CTR.

7. Предварительный просмотр в Google

Функция “Instant Previews” Google дает пользователям возможность видеть скриншот сайта еще в поисковой выдаче. К сожалению, этот предпросмотр не всегда показывает flash элементы и в результате этого, сайт может выглядеть просто безобразно. Решить эту проблему можно несколькими путями, но главная рекомендация – это не увлекаться flash элементами. Согласно данным Google, предпросмотр привлекает внимание пользователей, заставляет их кликать и конечно же повышает ваш CTR.

Помните, что для того, чтобы увеличить CTR, вы должны понимать ваших пользователей и то, как они видят поисковую выдачу.

http://webzblog.com/kak-uvelichit-ctr-sajta-v-pois...lya-maksimalnoj-klikabelnosti/

Фильтр Яндекса “ты — спамный”

Вторник, 11 Марта 2014 г. 15:49 + в цитатник
О фильтре “ты — спамный”

Фильтр “ты — спамный” (Т-С) – негласно назван народом. Данное название фильтра поддерживаю и я. Он заключается в том, что на пару “запрос-документ” накладываются санкции со стороны Яндекса, которые выбрасывают запрос далеко гулять по серпу. Простыми словами: продвигаемая страница резко теряет позиции по определённому ключевому запросу, в то время, как остальные запросы этой страницы остаются на месте.

Фильтр начал свой штурм и чрезмерную активность после 20 января 2010 года. Шквал вопросов и предположений побудил оптимизаторов разобраться с этой проблемой. У всех поголовно слетали запросы, уходя далеко за пределы 50-х позиций. В основном это были ВЧ и некоторая часть СЧ. Само собой связано этой с новой математической моделью ранжирования Яндекса “Снежинск”, при которой самообучающийся алгоритм вёл себя не адекватно.

Когда позиции резко слетают, или просто не хотят двигаться вверх, то скорей всего на продвигаемую страницу наложен этот фильтр.

Причина наложения фильтра “ты — спамный”:

Чрезмерное вхождение запроса в продвигаемую страницу (повышенная “тошнота”, заспамленность ключевика)

Рассмотрим способы определения этого фильтра.

Способы определения

Наверняка большинство оптимизаторов теряли позиции по основным запросам, но не все могли распознать причину того. Буду краток, перейдём к сути.

Способы определения фильра “ты — спамный”:

1) Выясняем, какой запрос слетел с позиций (в основном, начиная с 20 января)

Смотрим позиции после апдейта ЯВ от 20 января, слетевшие позиции – под подозрением
Смотрим любые скачки (отрицательные) с любой даты, в основном ВЧ, также выявляем
Если начали продвигать сайт, у которого ВЧ никак не поднимается, тоже следует задуматься вылет позиций

2) После выявления потенциальных запросов, которые попали под фильтр “Т-С” (ты — спамный), проверяем, так ли это

В большинстве случаев страница в выдаче меняется с продвигаемой, на более релевантную по мнению Яндекса. Например, продвигали морду, но после фильтрации показывает какой-либо внутряк. Самый простой способ – смотрим позицию, на которой находимся после фильтрации:

внутряк вместо морды

Если при этом остальные запросы так сильно не просели, то можно не сомневаться, что ваш вылетевший запрос под фильтром “ты — спамный”
В некоторых случаях (из ряда вон выходящие) страница остаётся той же, но находится либо по НПС (найден по ссылке), либо по какой то словоформе исходного запроса

найден по ссылке

После того, как сомнения рассеяны, и мы точно знаем, что к паре “запрос-документ” применён фильтр “Т-С”, начнём предпринимать меры по оказанию “первой помощи” и возвращению позиций.

Методы борьбы с фильтром. Возвращаем запросы

1) Смотрим, что нам показывает Яндекс на продвигаемой странице, по исходному запросу

Смотрим методом “ещё с сайта”

ещё с сайта

В появившейся выдаче находим продвигаемую страницу, затем смотрим заголовок и подчёркнутое вхождение
Если заголовок нужной страницы в этой выдаче не соответствует текущему – проблема в заголовке
Смотрим на подчёркнутое вхождение запроса в сниппет. Копируем выделение с соседними словами. Открываем продвигаемую страницу (в большинстве случаев — главная), ищем скопированную часть текста (с включённым запросом). Если запрос нашёлся на странице вне основного текста (например, в футере или в какой-то ссылке на внутряк, или в сайдбаре, в меню) – то проблема в основном тексте также присутствует!

2) Далее будем решать проблемные сегменты контента

Убираем повторное вхождение ключа в титле (скорей всего оно будет, если ранее определили проблему в титле)
Далее, если определили проблему в основном тексте, следует визуально посмотреть вхождения, которые считает Яндекс
Лезем в КЭШ Яндекса, для этого переходим по адресу — http://hghltd.yandex.net/yandbtm?url=http://www.ПР...Я_СТРАНИЦА.ru/&text=ВАШ_ЗАПРОС (вводим свою страницу и запрос в ссылку)
Смотрим на расклад вхождений в документ

кэш Яндекса

Теперь самое время сравнить с конкурентами. Для этого либо открываем кэш страниц из ТОП-10 по исходному запросу и считаем количество ЧИСТЫХ вхождений и РАЗБАВОЧНЫХ (в среднем оно должно быть меньше вашего количества)
Далее, руководствуясь минимальным количеством запросов сайта из ТОП-10, уменьшаем количество вхождений на своей странице до нижнего предела (желательно ещё меньше, добавить всегда можно будет)
После 1-2 апдейтов, страница должна перебиться в поиске и встать близ места, на котором находилась ранее
Также советую вхождения разбросать по блокам на странице, а не просто в полотне текста. Разбивайте вашу простыню основного текста на блоки, тегами
например.
Если не получилось выйти из-под фильтра, оставьте по 1 вхождению запроса в документ, потом можно будет увеличить
Дополнительно можно воспользоваться способом замены страницы в выдаче

Итоги. 8 рекомендаций

1) Проверяйте все свои запросы на фильтр “ты — спамный”

2) Не делайте большие простыни текста, особенно на главной

3) Не увеличивайте количество вхождений запроса в страницу (особенно чистых) просто так

4) Анализируйте конкурентов из ТОП-10, их тошноту, количество вхождений, процент разбавочных, объёмы текста

5) Старайтесь прийти к своей методике по борьбе с этим фильтром, анализируйте чужие, экспериментируйте

6) Делайте читаемые тексты, для людей

7) После манипуляций над страницей, запрос возвращается на позицию спустя 1-2 апдейта

8) Если манипуляции над страницей не помогли, оставляйте одно вхождение запроса в страницу, далее можно будет постепенно увеличить
http://www.seowit.ru/ty-spamnyj

Что именно по внутренней оптимизации мы делали

Понедельник, 17 Февраля 2014 г. 15:18 + в цитатник
Что именно по внутренней оптимизации мы делали

1. Привели в порядок Title и мета-теги.
Перечисления запросов в заголовках заменили на человекопонятный текст. Прописали уникальные keywords и description для каждой страницы.

2. Исправили URL-адреса:
- убрали мусор с URL, сделали их короткими и отображающими суть содержания страниц;
- заменили кириллические адреса на транслит;
- сократили адреса, которые полностью повторяли содержание title.

3. Почистили контент от переспама.
Удалили спамовые конструкции и запросы с умышленными опечатками. Их было немного, но мы всегда избавляемся от таких элементов.

4. Перераспределили ключевые слова по страницам таким образом, чтобы каждой группе запросов соответствовала наиболее релевантная страница.

5. Заменили водянистые тексты на содержательное описание продукции.
Сделали так, чтобы пользователю сразу было понятно, что описывается на странице – какой продукт, какие его характеристики и т.д.

6. Правильно оформили тексты, которые не требовали полной замены.
Разместили заголовки, разделили абзацы, расставили акценты таким образом, чтобы тексты легче воспринимались.

7. Создали и залили на сервер Robots.txt с запретом на индексацию системных страниц.

Также мы внимательно проанализировали конкурентов и составили инструкции по улучшению конверсий, но до скачка сайта в Топ клиент еще не успел это реализовать.

Я прекрасно понимаю владельцев сайтов, которые не хотят вникать в технические детали и подстраивать свой ресурс под поисковые алгоритмы. Вполне справедливо ожидать от поисковика лояльности, если ты делаешь качественный web-продукт. Но, увы, мы не можем заставить поисковик подстроиться под нас – если мы хотим получить долю выгоды от поискового трафика, то должны соблюдать общие правила, нравится нам это или нет.

http://optimizatorsha.ru/cases/vnutrenyaa-optimizaciya/

Код для кнопок «поделиться в соцсетях»

Среда, 11 Декабря 2013 г. 11:59 + в цитатник
Как вставить кнопки в код страницы

http://blog-craft.ru/knopki-socialnyx-setej-dlya-sajta/
http://blogotey.ru/social_plaguin_free/


Картинки кнопок

http://blogotey.ru/social_buttons/

Прогнозируемая прибыль в зависимости от посещаемости

Четверг, 31 Октября 2013 г. 20:24 + в цитатник
Показатель 5000р. со всех рекламных блоков (яндекс, адсенс, бегун и т.п.) в месяц на 1000 уников в день является хорошим. Стремитесь к нему и старайтесь превысить его. И будете вполне успешны.

Алгоритм Яндекса в учете внешних ссылок

Среда, 30 Октября 2013 г. 11:55 + в цитатник
Панель Вэбмастера в Яндексе дает возможность просмотра всех внешних ссылок на сайт, которые обнаруживает поисковый робот при индексации страниц в интернете. Сегодня большинство оптимизаторов обнаружило в панели Вэбмастера серьезное сокращение количества ссылок на продвигаемые сайты. Причины полномасштабного урезания "беков" кроются в следующем:

Учитываются ссылки только со страниц, попавших в поисковый индекс не менее 2 раз подряд, т.е. даже, если страница была проиндексирована, а при повторной индексации страница была исключена из поиска, то Яндекс такие ссылки не учитывает.
Не учитываются ссылки, размещенные на новых страницах, которые Яндекс не успел повторно проиндексировать.
Ссылки с атрибутом rel="nofollow" теперь не учитываются не только Гуглом, но и Яндексом. Поскольку большинство форумов и блогов с поддержкой комментариев добавляют к размещаемым пользователями ссылкам данный атрибут в автоматическом режиме, то методы продвижения через размещение ссылок в блогах и форумах становятся неэффективными для Яндекса.
Ссылки с изображений теперь также не учитываются поисковой системой.
Новые ссылки учитываются только после второй индексации этих ссылок Яндексом.

Учитывая, все вышеизложенные факты, приходится констатировать, что данные изменения нацелены в первую очередь на снижение влияния молодых ссылок и ссылок с "не трастовых" ресурсов на ранжирование сайтов в результатах поиска. Данную новость следует воспринимать seo-специалистами как позитивную, поскольку произведенные изменения поискового алгоритма Яндекса делают процесс продвижения более длительным, прогнозируемым и, тем самым, способствующим переходу рынка услуг продвижения сайтов на более цивилизованный уровень взаимоотношений seo-компании и клиентов.
http://up66.ru/prodvizhenie-saytov/izmeneniya-algo...v-uchete-vneshnich-ssilok.html

Александр Садовский «Новые принципы ранжирования коммерческих сайтов»

Вторник, 03 Сентября 2013 г. 13:04 + в цитатник
В рамках Десятой ежегодной конференции «Поисковая оптимизация и продвижение сайтов в Интернете», проходившей 24-25 ноября 2011 года в Москве, прозвучал доклад Александра Садовского, руководителя веб-поиска компании Яндекс, на тему: «Новые принципы ранжирования коммерческих сайтов».

В самом начале своего выступления Александр предупредил аудиторию, что на этот раз он решил не рассказывать о том, что можно прочесть в блогах Яндекса, предпочитая осветить вопрос, который может быть интересен слушателям с коммерческой точки зрения. С этой целью он рассказал о новых изменениях в поиске, которые вступили в силу буквально на днях.

Что такое хороший информационный ответ? Это качество информации (полнота, актуальность, свежесть, удобство восприятия и т.д.), но коммерческий запрос - особенный, он другой. Поэтому хороший коммерческий сайт - это ресурс, который помогает пользователю не только сделать выбор, но и подталкивает его к совершению покупки.

Сами же пользователи зачастую учитывают не самые важные вещи с точки зрения поисковых систем. Их чаще интересуют вещи связанные с оффлайном: доставка, сроки, наличие и т.п. Эта оффлайн-составляющая ранее не учитывалась поисковиками.

Как поисковик ищет хорошие сайты? Он делает это автоматически, основываясь на статистическом знании. Мы составляем некую инструкцию для асессора, затем проводим обучающую выборку, на основе которой поисковая система отличает хороший сайт от плохого. По сути, поисковая машина, как слепой человек - учится на ощупь.

Затем формула ранжирования подбирает под обучающую выборку информационные коэффициенты, являющиеся наиболее важными. Если посмотреть на те результаты, которые получались тогда, когда мы ранжировали коммерческие сайты как информационные, то хорошие коммерческие сайты получали положительную оценку, ведь качественный сайт всегда отличается от плохого или даже среднего.

Сегодня же асессор оценивает коммерческий сайт по целому ряду критериев – это и ассортимент, и доверие пользователей к сайту, и удобство выбора, и качество предоставляемой услуги, и дизайн главной страницы, и многое другое. Такой алгоритм запущен с 20 ноября 2011 года, он работает по московским запросам, и касается 3% всех коммерческих запросов.

К чему должен стремиться коммерческий сайт сегодня? Быть лучшим в своей категории. К сожалению, абсолютных критериев к этому требованию нет, и всякое сравнение относительно. Важно уделять внимание SEO. Деньги следует вкладывать в привлечение пользователей. Однако делать это нужно не так, как раньше (т.е. без улучшения качества самого сайта, а, пытаясь сделать ресурс похожим на другие сайты для поисковых систем) - в наши дни важно привлекать пользователей улучшением качества ресурса, а не имитацией.

Сейчас мы стремимся добиться того, чтобы трафик сайта напрямую отражал его качество. Так уже происходит по многим запросам, и скоро будет по всем.

Низкие оценки асессоров получают сайты с полным отсутствием дизайна, отсутствием контактной информации, не внушающие доверия. Стоит лишь указать контактную информацию, как ресурс уже получает средние оценки, ведь теперь пользователь может видеть количество офисов, узнать телефон, по которому можно позвонить в компанию и т.д.

Если же на сайте присутствует удобная система выбора товара, схема проезда, простые формы оформления заказов – т.е., если видно, что над сайтом хорошо поработали, придают ему большое значение, уделяют внимание и деньги – асессоры выставляют ресурсу высокую оценку.

В ходе своего выступления Александр также рассказал о сравнении оценок оптимизаторов и асессоров, сообщив, что в большинстве случаев их оценки совпадают, потому что и те, и другие рассматривают сайты по единым критериям и считают важными одни и те же вещи. Вот почему оптимизаторам нужно делать сайты такими, чтобы они нравились им самим. Только тогда эти сайты обязательно получат и высокие оценки асессоров. «Быть, а не казаться!» – вот главный совет для тех, кто начинает свой путь к светлой стороне SEO.

«Даже если в настоящий момент сайт имеет хорошую позицию в выдаче, оптимизаторы всегда должны держать руку на пульсе, чтобы не вылететь из топа» - завершил свое выступление Александр Садовский.

Зал: - Сколько времени займет путь на светлую сторону SEO после переиндексации сайта?

Александр Садовский: - Есть изменения, которые будут учтены мгновенно (добавление контактной информации), а есть факторы довольно инертные (набор объема информации).

Зал: - Вы говорите, что вводится новая система оценок, а в реальности получается, что это все равно имитация, потому что нам придется делать сайты под те, которые будут в топе. А если у меня будет хороший сайт, но не похожий на те, что в топе? Он туда не попадет?

Александр Садовский: - Хороший сайт будет в топе! Не занимайтесь имитацией, просто улучшайте свои сайты и не делайте зря дурную работу.

Зал: - Учитываются ли кнопочки Like, «Share», и прочие на коммерческих сайтах?

Александр Садовский: - Пока не учитывается, но мы думаем над этим, и в перспективе обязательно будем учиnывать возможности социальных сетей.

Письменный вопрос: - Реально ли на данном этапе оценивать качество текста, хотя бы по количеству синонимов? Для того чтобы подавлять их, и чтобы в рунете было больше удобочитаемых текстов.

Александр Садовский: - Уважаемый автор синонимайзера, да, есть такая возможность, не занимайтесь фигней, а делайте хорошие тексты.

Зал: - А не будет ли система отбора хороших и плохих коммерческих сайтов применена к блогам?

Александр Садовский: - Да, мы работаем над этим, но это не релиз ближайших месяцев точно, потому что с блогами все гораздо труднее.

http://www.searchengines.ru/articles/alexander_sadov.html

КАК ИСПОЛЬЗОВАТЬ МИКРОРАЗМЕТКУ СТАТЕЙ GOOGLE

Пятница, 23 Августа 2013 г. 10:33 + в цитатник
В начале августа компания Google анонсировала новшество в своей поисковой системе: выделение подробных статей на искомую тему в отдельный блок на странице выдачи.
Для того, чтобы поисковая система рассмотрела ваш материал в качестве кандидата на включение в этот блок, некоторые элементы публикации должны быть специально размечены согласно словарям Schema.org. Вот главные моменты, которые стоит учесть.
Основные атрибуты разметки статей
Весь материал должен находиться внутри следующего элемента:
ЗДЕСЬ ВАШ КОНТЕНТ

Заголовок, т.е. название публикации:

Заголовок


Альтернативный заголовок, или подзаголовок:
Подзаголовок
Изображение, которое появится справа от описания статьи:
Релевантный текст описания
Краткое описание статьи:

Текст описания


Дата публикации:
Дата публикации
Текст публикации:

Текст статьи


Не забудьте поставить закрывающий тег .
Вам может понадобиться дополнительная микроразметка. Справку по всем возможным свойствам статей вы можете получить в соответствующем разделе на сайте Schema.org.
Готовые решения
Существуют ли готовые решения для популярных CMS? Да.
Самая актуальная коммерческая версия плагина WP Social SEO Booster для Wordpress уже включает поддержку разметки подробных статей, причём активирует использование этой микроразметки по умолчанию. Существует бесплатная версия этого модуля с меньшими возможностями.
Для Joomla существует дополнение J4 Schema, предоставляющее простой доступ к словарю Article. Есть и расширенная коммерческая версия — J4 Schema Pro. Впрочем, некоторые специалисты рекомендуют решать эту задачу на уровне шаблона вывода.
Дополнение Schema.org для Drupal позволяет использовать различные словари микроразметки, включая Article. Установив дополнение, необходимо добавить в структуру публикаций нужные поля из словаря, а затем заполнять их для каждого материала.
Разметка авторства
Следующий рекомендуемый шаг — связать автора публикации с профилем в Google+. Если вы не пользуетесь CMS, либо ваша CMS не поддерживает связывание учётной записи пользователя с учётной записью в Google+, вы можете отредактировать шаблон, поместив имя автора внутрь элемента гиперссылки следующим образом:
Ваше имя
Если у вас уже есть учётная запись в Google+ с загруженной фотографией, скопируйте ссылку страницы профиля и поместите её вместо "profile_url".
Далее в свойствах профиля на Google+ перейдите к блоку "Links" и нажмите "Edit". В разделе "Contributor to" открывшейся формы добавьте адрес публикации, автором которой вы являетесь, либо URL сайта, куда вы пишете статьи.
Оптимизация логотипа
Вы также можете добавить микроразметку к логотипу вашего интернет-проекта. Поддержка этого словаря появилась в Google в мае этого года. Вот пример кода:

Что дальше? Продолжайте писать качественные оригинальные статьи, интересные вашей аудитории и укрепляющие ваш экспертный статус.

http://subscribe.ru/archive/inet.search.seo/201308...mp;uuid=gn3oSSLIYsYeQ5Hv1F2L3A

Тестирование оформления рекламных блоков Яндекс Директ

Четверг, 15 Августа 2013 г. 14:14 + в цитатник
1. Выбор возможного оформления

Первое, и самое сложное, что нужно сделать это определится с оформлением, которое в принципе может сработать. Перебирать сотни и тысячи вариантов цветов и тестировать их, мы, конечно, не будем. Какое же оформление нужно тестировать!? Нужно выбрать 2-4 варианта наиболее разнящихся между собой.

Для сайтов, которые поставили блоки в соответствии с рекомендациями по положению блоков, предлагаю вот такие наборы:

Цвет заголовков 990000; цвет текста, url рекламодателя и ссылки “все объявления” такой же, как текст на сайте; без фона; без рамок.
Цвет заголовков такой, же как у ссылок на сайте; цвет текста, url рекламодателя и ссылки “Все объявления” такой же, как текст на сайте; без фона; без рамок.
Фон противоположный фону сайта(если сайт черный, то попробуйте белый или серый фон); Если цвет 990000 будет контрастно смотреться на выбранном фоне, то попробуйте его; цвет текста, url рекламодателя такой, чтобы он был контрастным на выбранном фоне; без рамок.
Цвет заголовков 000000; цвет текста, url рекламодателя и ссылки “Все объявления” такой же как текст на сайте; без фона; без рамок.

Для сайтов, на которых НЕвозможно, разместить блоки в соответствии с рекомендациями, кроме всех вышеперечисленных обязательно попробуйте оформление, которое будет наиболее сильно выделять объявления. Вот такое:

Цвета ближе к красному; заметный фон; рамки, обводящие каждое объявление; цвета текста и url рекламодателей должны быть контрастными на выбранном фоне.


2. Подготовка кодов вызова

Самое сложное позади, теперь нужно принять несколько правил:

Для каждого оформления используйте отдельный срез.
Не используйте один и тот же блок для 2 разных мест. Если необходимо тестировать и блок над статьей, и блок под ней, то сделайте на каждый из них свои блоки со своими срезами. Таким образом, если Вы будете тестировать 4 оформления на 2 места, то должно получиться 8 разных блоков и 8 разных срезов.
У всех блоков, претендующих на одно и то же место, должно быть одинаковое количество объявлений. На данном этапе мы тестируем только оформление, не количество объявлений! Количество объявлений нужно тестировать отдельно, после того как определитесь с оформлением. Если этим правилом пренебречь, то анализ результатов будет затруднен.

После этого у нас должно получиться уже какое-то количество готовых кодов вызова блоков.

3. Установка кодов на сайт. Настройка ротации

Организовать ротацию можно многими способами, мы рассмотрим только один вариант с помощью вот этого скрипта для ротации блоков.

По шагам настройка ротации выглядит так:

Каждому блоку даем название yadblockNM, где N — номер позиции. У каждого блока будет своя позиция. Например, позиция №1 — это блок в начале статьи, позиция №2 — блок в конце. Количество позиций = количество разных мест. M — номер блока с уникальным цветовым оформлением.
Для удобства анализа, лучше нумеровать срезы в соответствии с названием "NM".
У каждого блока убираем открывающий тег «script type="text/javascript"» и закрывающий «/script».
Получившиеся коды сохраняем в отдельные js файлы и даем им название в соответствии с тем что определили в пункте 1. Если у Вас по 4 варианта для каждого места, то должны получиться вот такие файлы: yadblock11.js, yadblock12.js, yadblock13.js, yadblock14.js, yadblock21.js, yadblock22.js, yadblock23.js, yadblock24.js
Создаем в корне сайта папку “yadblock” и загружаем в нее все получившиеся файлы.
На сайт, в места где должны показываться блоки ставим вот такие скрипты:



Переменная N будет равна номеру позиции, где данный скрипт выводится. Переменная Mmax будет равна количеству тестируемых оформлений на данной позиции. Если мест для блоков 2, то в каждое место ставим такой код со своими N и Mmax.

После этого все должно заработать. Статистика по срезам появится в ближайшие полчаса. Проверьте, показывается ли статистика по срезам на странице http://profit-partner.ru/stats/common/

4. Подведение итогов

Оценивать результаты можно будет после того, как накопится более менее стабильная статистика. Обычно достаточно, чтобы по каждому из срезов было по 50 кликов. Вы можете в начале тестирования оценить примерное время эксперимента. Если у Вас 10 кликов в сутки, и Вы создали 8 блоков для теста, то ждать придется примерно полтора месяца(50/(10/8)=40 дней). Чтобы ускорить время, можно уменьшить количество тестируемых блоков.

Когда Вы заметите, что набралось нужное количество кликов, то увидите примерно вот такую картину

Зелеными маркерами отмечены блоки, которые стояли на первой позиции(верху статьи), синими - блоки, стоявшие на второй позиции(внизу статьи). Нужно найти лидера по CTR для каждой позиции. При этом важно смотреть именно на CTR, а не на CPC, CPM или доход. Для первой позиции выиграл блок со срезом 1, для второй позиции - блок со срезом 2. Значит, блоки с таким оформлением и следует оставить на сайте.

Мы собирали статистику по результатам оптимизации цветов этим методом. Предлагаем ознакомиться с небольшим отчетом.
Заключение

В приведенном примере только благодаря работе над оформлением блоков рекламы удалось увеличить доход примерно на 25%. В среднем, результатом работы над оформлением является повышение дохода на величину до 50%.

Понятно, что таким образом можно проводить тесты и над другими настройками. Например, тестировать блоки с фавиконами и без них, тестировать разные шрифты и разные размеры шрифтов и т.д. Но результат этих тестов, конечно, потенциально меньше, чем от настройки оформления. В связи с этим, чтобы не получить ложных данных, время тестов на такие малозначительные параметры должно быть увеличено.

Если Вы начали тестировать блоки с фавиконами и без них, то после 50 кликов на каждый срез посмотрите, насколько велика разница в CTR, если эта разница незначительно отличается(<10%), то тест нужно продлить еще на 50 кликов. Если после достижения еще 50 кликов CTR у “подопытных” не сильно изменился с прошлого раза, то можно на этом остановиться, если произошли сильные изменения, то тестирование нужно продлить дальше, до тех пор пока Вы не получите устойчивые результаты.

http://blog.profit-partner.ru/post/27

КАК ЧИТАТЕЛИ РЕАГИРУЮТ НА ЗАГОЛОВКИ РАЗНЫХ ТИПОВ

Четверг, 15 Августа 2013 г. 14:11 + в цитатник
Привлекать внимание к публикациям в Интернете становится всё сложнее. Вот буквально несколько цифр для понимания масштабов проблемы:
• Исследование \"A Day in the Internet\" 2011 года показало, что на тот момент ежедневно публиковалось два миллиона записей в блогах, писалось 294 миллиарда писем, создавалось 864 тысячи часов видео. Не говоря уж о 400 миллионах твитов (по данным на конец марта 2013 года). Эти цифры постоянно растут.
• 80% читателей останавливаются на заголовке: лишь двое из 10 человека начнут читать материал, прочитав его заголовок.
• Трафик в существенной степени зависит от заголовка: по данным Upworthy, приток посещаемости может меняться на 500% в зависимости от того, как названа публикация.
Специалисты Conductor.com провели исследование, целью которого было выяснить, какие заголовки предпочитают читатели.
Формулировка заголовков
Для начала исследователи проанализировали крупную выборку публикаций в Интернете на предмет общих конструкций заголовков и выбрали пять наиболее распространённых:
1. Обычная («Способы сделать чаепитие более приятным»).
2. Вопросительная («Как можно сделать чаепитие более приятным?»).
3. Руководство («Как сделать чаепитие более приятным»).
4. С использованием чисел («30 способов сделать чаепитие более приятным»).
5. Обращение к читателю («Как вы можете сделать чаепитие более приятным»).
Довольно легко предсказать, что по итогам исследования лидером среди предпочтений читателей оказался вариант с числами. А что с другими вариантами?
• 36%, конструкция с использованием чисел;
• 21%, обращение к читателю;
• 17%, руководство;
• 15%, обычная конструкция;
• 11%, вопросительная конструкция.
Есть ли разница между предпочтениями мужчин и женщин? Как выясняется, да.
Предпочтения женщин:
• 39%, конструкция с использованием чисел;
• 20%, обращение к читателю;
• 18%, руководство;
• 13%, обычная конструкция;
• 10%, вопросительная конструкция.
Предпочтения мужчин:
• 32%, конструкция с использованием чисел;
• 22%, обращение к читателю;
• 17%, руководство;
• 17%, обычная конструкция;
• 12%, вопросительная конструкция.
Как видите, распределение примерно одинаковое, но женщины заметно охотнее читают публикации с числами в заголовке.
Превосходная степень
Следом было изучено, как на CTR влияет использование определений в превосходительной степени в заголовке. Пользователям были показаны тексты с заголовками, где было использовано от 0 до 4 таких определений:
• 27 способов выдрессировать собаку (0 употреблений превосходной степени);
• 27 лучших способов выдрессировать собаку (1 употребление превосходной степени);
• 27 самых лучших способов выдрессировать собаку (2 употребления превосходной степени);
• 27 лучших способов выдрессировать идеальную собаку (3 употребления превосходной степени);
• 27 самых лучших и разумных способов выдрессировать идеальную собаку (4 употребления превосходной степени).
Результаты показали, что больше половины респондентов (51%) предпочло более скромные заголовки с одним определением в превосходной степени или вовсе без таковых. Любопытно, что следующим по популярности оказался вариант с четырьмя превосходными степенями.
Вот все данные:
• 29%, 1 употребление превосходной степени;
• 25%, 4 употребления превосходной степени;
• 22%, 0 употреблений превосходной степени;
• 15%, 2 употребления превосходной степени;
• 9%, 3 употребления превосходной степени.
Иными словами, респонденты преимущественно выбирают как скромность, так и откровенную «лапшу». Средний подход работает заметно хуже.
1 из 5 респондентов не возражает, когда ВЫ НА НЕГО КРИЧИТЕ
Далее исследователи решили выяснить, как работают заголовки в разном регистре. Для этого они изучили реакцию на три варианта:
• 5 шагов в приготовлении к неминуемому зомби-апокалипсису (нижний регистр)
• 5 шагов в приготовлении к неминуемому зомби-апокалипсису (верхний регистр)
• 5 Шагов в Приготовлении к Неминуемому Зомби-Апокалипсису (смешанный регистр)
Как вы понимаете, здесь надо сделать скидку на то, что в российских традициях типографики третий вариант не используется. Эту часть оригинального исследования мы включили в публикацию скорее ради полноты.
Результаты получились следующими:
• 64%, смешанный регистр;
• 21%, верхний регистр;
• 8%, всё равно;
• 7%, нижний регистр
Разница в демографических группах при этом оказалась несущественной.
Выводы
Общие рекомендации по конструированию заголовков можно сформулировать примерно так:
1. Не придумывайте заголовок в последний момент. Не забывайте, что 80% читателей не продвинутся дальше заголовка. Оставьте себе достаточно времени на то, чтобы подготовить качественное, броское название публикации.
2. Как можно меньше сомнений. Текст заголовка должен быть предельно ясным и давать чёткое представление о том, что читатель найдёт в публикации.
3. Не забывайте о сниппетах в поисковой выдаче. По возможности старайтесь применять расширенные сниппеты при помощи микроразметки schema.org.

http://subscribe.ru/archive/inet.search.seo/201307...mp;uuid=gn3oSSLIYsYeQ5Hv1F2L3A

Drupal 16. Обновление Drupal 7.22 ошибка 500

Среда, 15 Мая 2013 г. 18:12 + в цитатник
Накатил обновления 7.22, тут же error 500. Хостинг от Ru-Center

Решение: нужно вернуть старый .htachess

Методом \"тыка\" нашёл блок кода (в файле .htaccess), вызывающий ошибку, но не могу осилить как победить проблему. Ниже привожу код (обновленный в версии 7.22), вызывающий ошибку. Что скажут знатоки?

Было (рабочий код):

FilesMatch \.(engine|inc|info|install|make|module|profile|test|po|sh|.*sql|theme|tpl(\.php)?|xtmpl)$|^(\..*|Entries.*|Repository|Root|Tag|Template)$
Order allow,deny
/FilesMatch

Стало (вызывает ошибку 500):

FilesMatch \.(engine|inc|info|install|make|module|profile|test|po|sh|.*sql|theme|tpl(\.php)?|xtmpl)(|~|\.sw[op]|\.bak|\.orig|\.save)?$|^(\..*|Entries.*|Repository|Root|Tag|Template)$|^#.*#$|\.php(~|\.sw[op]|\.bak|\.orig\.save)$
Order allow,deny
/FilesMatch

Что такое грамотная внутренняя оптимизация

Среда, 10 Апреля 2013 г. 13:22 + в цитатник
Пару лет назад внутренняя оптимизация по сравнению с внешними ссылками не имела такого уж большого значения, и можно было вывести в Топ практически любой сайт по любому запросу только за счет ссылок. Сейчас же все наоборот – сайт может выйти в Топ по многим СЧ-НЧ только за счет грамотной внутренней оптимизации, в то время как без нее любые ссылочные бюджеты будут потрачены зря. В сегодняшей статье я расскажу о том, что я вкладываю в понятие “грамотная внутренняя оптимизация“.

1. Правильно выбранные посадочные (продвигаемые) страницы.
Я всегда стараюсь разделить семантическое ядро на смысловые группы, и под каждую группу оптимизировать отдельную страницу. Если ключевых фраз мало, и на смысловые группы их даже с натяжкой поделить сложно, тогда нужно действовать в зависимости от специфики этих фраз – либо оптимизировать одну страницу под все запросы, либо определить под каждый отдельный запрос свою страницу. Под спецификой запроса я понимаю уровень конкуренции, смысловую нагрузку и количество слов в запросе (односложник, двусложник, многосложник).

2. Правильно составленные заголовки (title) и мета-описания (keywords, description) страниц.
Во первых, тайтлы и мета-описания должны быть уникальными и релевантными не только на продвигаемых страницах, но и на всех страницах, доступных для индексации поисковыми системами. Это не только послужит дополнительным аргументом в пользу общей релевантности (траста, если хотите) вашего сайта, но и поспособствует привлечению поискового трафика по НЧ запросам. К тому же, поисковые системы не любят повторяющиеся описания. В Инструментах Вебмастера Google есть специальный раздел, где можно отслеживать повторяющиеся заголовки и описания.

Во-вторых, не советую пихать в заголовок более 12-15 слов – от бОльшего количества не будет пользы ни в плане продвижения, ни в плане удобства. По поводу мета-описаний – я стараюсь не ставить туда более 20 слов.

В третьих, старайтесь делать тайтлы человекочитабельными – ведь именно тайтл будет отображаться в выдаче в качестве ссылки на ваш сайт, а на ссылку с осмысленным текстом будут кликать больше, чем на перечисленные через запятую ключевые слова.

3. Осмысленный, уникальный, удобно оформленный контент.
Осмысленный контент – это контент, созданный для человека, а не для робота. После введения Яндексом фильтра “Ты спамный” отпала необходимость размещать огромные тексты на сайтах с целью выхода в Топ. Теперь все зависит от специфики ресурса и ключевых фраз, по которым он продвигается. Если вы продвигаете интернет-магазин, подумайте, целесообразно ли размещать на посадочных страницах огромные тексты в несколько тысяч слов, или лучше поставить краткие, продающие описания? Заголовки h1 и выделения strong, b и прочие усиливающие атрибуты нужно стараться употреблять там, где это нужно по смыслу, а не с каждым ключевым словом. Ключевые слова рекомендую распределить равномерно по всему тексту, а не пихать их все в первый абзац. Если у вас есть сомнения по поводу текстов, рекомендую скачать и посмотреть вебинар “Роль текстов в интернет-маркетинге”.

4. Обеспечение правильной индексации сайта.
На сайте не должно быть дублирующих друг друга страниц с одинаковым контентом, но разными URL’ами (версии для печати, страницы с идентификаторами сессий, страницы с сортировкой одних и тех же товаров в разном порядке и т.д.). Если от таких страниц избавиться невозможно, необходимо закрыть их к индексации в robots.txt. При попытке зайти на несуществующую страницу должна выдаваться 404 ошибка. Еще я стараюсь с самого начала продвижения определиться с основным зеркалом и настроить 301 редирект.
Советую также добавлять свои сайты в Панель Вебмастера Яндекса и в Панель Инструментов Google и регулярно посещать разделы с отчетами об ошибках индексации.

5. Грамотрая внутренняя перелинковка страниц и каноникализация.
У меня уже есть статья о внутренней перелинковке, где описаны все нюансы правильной навигации и простановки ссылок с внутренних страниц, поэтому здесь на этом вопросе подробно останавливаться не буду.

6. Правильная структура страниц.
Каждая страница состоит из двух основных частей – а) шаблонной – меню навигации, шапка, футер и другие сквозные блоки, которые повторяются на каждой странице; б) содержательной – основной контент, ради которого создавалась эта страница. Шаблонная часть не должна быть намного больше содержательной части – это может не только плохо сказаться на релевантности страниц, но и привести к проблемам с индексацией сайта (выпадение целых кластеров сайта в Яндексе, перенесение страниц из основной выдачи в опущенные результаты в Google и др).

7. Грамотная верстка страниц.
HTML-код страницы должен способствовать, а не препятсвовать ее индексации роботами поисковиков. С помощью div-верстки можно и нужно размещать важные блоки ближе к началу страницы, а низкосодержательные – ближе к концу.

Старайтесь делать внутреннюю оптимизацию до того, как начнете наращивать ссылочную массу – это сэкономит усилия, время и бюджет.

http://optimizatorsha.ru/news/chto-takoe-gramotnaya-vnutrennyaya-optimizaciya/

10 правил внутренней перелинковки страниц

Среда, 10 Апреля 2013 г. 13:13 + в цитатник
Правильная внутренняя перелинковка может значительно увеличить трафик по НЧ, а неправильная – стать причиной сложностей в продвижении сайта. Я убедилась в этом сама, когда после описанных в этом посте дейсвий на двух моих сайтах трафик увеличился в среднем почти в 3 раза, а один клиентский сайт попал в Топ3 после длительного сидения на 2-4 страницах.
внутренняя перелинковка

Мои дейсвия по внутренней перелинковке состояли из двух этапов: оптимизация навигации сайта, и простановка ссылок из текстов внутренних страниц.



Действия по улучшению навигации сайта:

1) Убедитесь, что меню сайта индексируется поисковыми ботами. Для этого оно должно либо иметь вид текстовых ссылок (желательно, с кеями в анкорах) или картинок с грамотно прописанными alt-атрибутами.

2) На всех внутренних страницах должна быть ссылка на главную, и везде с одинаковым URL-адресом. Если это http://mysite.ru, то это везде должна быть http://mysite.ru. И никаких http://www.mysite.ru, http://mysite.ru/inedx.php или http://mysite.ru/index.php&id=123456.

3) Хлебные крошки, карта сайта и другие фишки типа популярных статей, похожих записей и т.д. – хорошие штуки. Они помогают как поисковым ботам, так и вашим посетителям.

4) Если вы продвигаете по ВЧ внутренние страницы – желательно, что б ссылки именно на эти страницы были сквозными, обязательно – что б на них была ссылка с главной. У страниц третьего уровня статичный вес по умолчанию меньше, чем у страниц второго уровня, и продвинуть их по ВЧ будет проблематично.

5) Если вы продвигаете по ВЧ внутренние страницы и ставите на них внешние ссылки – перелинкуйте эти страницы между собой. Тогда ссылки, которые вы ставите на продвигаемую страницу А, будут передавать вес также на продвигаемую страницу Б.



Простановка ссылок из текстов внутренних страниц

1) Ставьте ссылки из текстов внутренних страниц на другие страницы, подходящие по контексту. Особенно упорно ставьте ссылки на те страницы, которые продвигаете. Для многих CMS есть уже готовые модули текстовой перелинковки, с помощью которых такие манипуляции делаются легко и просто (например, Cross-Linker для WordPress, Alinks для Drupal и Linkr для Joomla).

2) На одну и ту же страницу старайтесь ссылаться каждый раз разным анкором. Я экспериментировала со своими сайтами, проставляя в одном случае все ссылки с одинаковым ВЧ кеем в анкоре, в другом – каждый раз ссылаясь разным текстом. Во втором случае ВЧ почувствовавал себя намного лучше, плюс добавилось трафика по НЧ.

3) Если у вас есть страницы без текста (например, галлерея или страницы с таблицами описаний товаров) – всеравно используйте их для внутренней перелинковки. В таком случае ссылки придется сотавить отдельно, но для этого есть удобный бесплатный модуль Сеолиба для перелинковки страниц.

4) Не переусердствуйте с ссылками из текста. Количество ссылок, которые можно ставить, зависит от количества текста. Но в любом случае я не советую ставить больше 3 ссылок со страницы.

5) Если вы добавляете новый контент – не забудьте сослаться из него и на него. Это ускорит его индексацию, плюс добавт вес тем страницам, на которые он ссылается.

Вроде всё. Получилось всего 10 пунктов, но я не подгоняла их количество под красивую цифру. Конечно, такие манипуляции требуют времени и внимания, особенно вторая часть. Но зато внутренняя перелинковка имеет три неоспоримых преимущества: 1 – это бесплатный способ повышения позиций, 2 – она сэкономит ваш бюджет на покупку платных ссылок, 3 – ее надо делать только один раз.

Update: нововведения от Яндекса
5 октября 2011 года на официальном блоге Яндекса появилось сообщение о том, что поисковый алгоритм начинает учитывать юзабилити сайтов. Согласно этому сообщению, на позициях сайта может сказаться (цитирую) “отсутствие хорошей навигации, сложная или запутанная структура”.

Если у Вас есть подозрения, что Ваш сайт не может подняться в выдаче именно по этим причинам – анализируйте навигацию конкурентов и пробуйте на основании сделанных выводов улучшить свою.

При этом в первую очередь нужно анализировать конкурентов с высокими показателями ПФ (пользовательских факторов), так как ПФ очень тесно связан с юзабилити.

Я делаю так: определяю ПФ для сайтов из Топ 10 по нужному запросу этим скриптом , выбираю те сайты, которые сидят в Топе только за счет ПФ и анализирую их навигацию и структуру. Иногда выводы очевидны, иногда приходится копать глубже, но в целом общая схема выглядит именно так.

С ув., Елена Камская.
http://optimizatorsha.ru/master-classes/internal-links-building/

этим скриптом

Сергей Людкевич «Нюансы алгоритма ранжирования Яндекса»

Среда, 03 Апреля 2013 г. 12:04 + в цитатник
Доклад был представлен Сергеем Людкевичем, начальником отдела аналитики WebEffector, на конференциях Cybermarketing 2011 и Optimization 2011. Он был посвящен нюансам алгоритма ранжирования Яндекса, препятствующим хорошему ранжированию сайтов: штрафам, фильтрам, негативным факторам ранжирования и пр.

По словам докладчика, поисковая машина Яндекса на российском рынке, на данный момент, представляет наибольший интерес как для оптимизаторов, так и для владельцев бизнеса, которые хотят привлекать целевую аудиторию на свои сайты.

Сергей начал свой доклад с пресловутой формулы релевантности. Если еще лет пять назад можно было эту формулу написать на клочке бумаги, то сейчас это сделать, увы, невозможно. Потому, что где-то с конца 2007 года Яндекс перешел на новую формулу на основе машинного обучения (технология MatrixNet). В результате машинного обучения получается формула, которая не имеет никакого физического смысла. Это некая абстрактная аппроксимация оценок асессоров, которая выливается в какие-то закономерности, которые связаны с совершенно различными факторами. И факторы эти могут быть совершенно глупыми и абсолютно нелогичными. В прошлом году в журнале «Практика интернет-маркетинга» представителями Яндекса было заявлено: «Если мы увидим такой фактор, при котором background красного цвета будет улучшать наши метрики качества, мы будем его использовать». Вот это лучше всего отражает суть данного подхода.

Итак, на данный момент в Яндексе есть ряд формул на основе машинного обучения и технологии MatrixNet. В апреле 2010 года на Киборифе Дэн Расковалов сообщил о наличии 420 с лишним факторов ранжирования. Сложно даже себе представить, что можно вместить в эти 420 факторов. Наверняка здесь учтены не только факторы, но и разные их комбинации (мономы). И если факторы имеют какой-то смысл, пусть и не совсем физический, то мономы, являющиеся приложениями этих факторов, никакого смысла вообще не имеют.

Например, что может физически означать средняя индексация сайта, помноженная на количество ключевых слов в тайтле и помноженная на число латинских букв в url? Естественно, смысла в этом никакого нет. Но, тем не менее, какие-то внутренние метрики растут при появлении этих факторов, и за счет этого они включаются в формулу.

Нет единой формулы релевантности. Есть отдельные формулы для крупных регионов: Москва, Санкт-Петербург, 16 крупных городов России, Украина, Белоруссия, Казахстан. Есть такая общероссийская формула, которая действует для всех остальных регионов России - 16 крупных городов релиза «Арзамас+16». Также наблюдается различие по степени запросов формулы. Коммерческие запросы, например, ранжируются совершенно иначе, чем некоммерческие запросы. Могут быть различия в ранжировании запросов, связанных с видео, с музыкой и так далее.

И вот MatrixNet проинтерпретировал оценки асессоров, построил формулу, которая является оптимальной по некоей внутренней системе качества. Но, как оказывается, этого мало. Решение получилось оптимальным с точки зрения алгоритма, но, тем не менее, в него вносятся дальнейшие правки. Получается, что много мусора все равно остается, и поэтому вводятся различные ограничения, т.е. это машинное обучение подвергается еще и ручной корректировке. Какие же пессимизации можно выделать на данный момент?

Во-первых, это пред-фильтры – то, что применяется еще до расчетов формулы ранжирования. Это дисконтирование или обнуление значений каких-либо факторов. Эти ссылки совсем могут не участвовать в ранжировании.

Во-вторых, наряду с пред-фильтрами, широкое применение в последнее время получили так называемые пост-фильтры, или штрафы. Это уже непосредственное дисконтирование значения функции релевантности. То есть, мы вычисляем значение релевантности запросов в заголовке сайта, а потом за какие-то прегрешения, или за то, что не выполняются какие-то дополнительные условия, накладываются штрафы. И в последнее время происходит это очень часто. Появляются какие-то совершенно новые фильтры - за переоптимизацию, за портянки, еще за что-то… И накладываются вот эти штрафы. То есть, получается, что великий и могучий алгоритм MatrixNet устроен так, что не получается автоматически вот эти вещи получить при выборе факторов. И приходится, практически вручную, делать некие настройки, которые программисты называют костылями. И количество этих костылей все больше и больше растет.

Также помимо этих штрафов, существует и фильтрация уже на этапе выдачи. Когда документы уже отранжированы, но по каким-то причинам принимается решение некоторые из них не показывать в результатах поиска. Наиболее яркие примеры – это, так называемые, аффилированные сайты, когда происходит группировка результатов поиска с нескольких сайтов, и показывается результат только с одного из них. До недавнего времени можно было с уверенностью говорить, что показывается один из наиболее релевантных результатов, но в последнее время стали наблюдаться случаи, когда это не так. Видимо были введены какие-то дополнительные критерии. Например, первое, что может прийти в голову – авторство контента или еще что-то.

Дальее идет фильтр на одинаковые сниппеты – это когда по умолчанию в выдаче показывается только один результат. Эта проблема очень актуальна для интернет-магазинов, когда на карточках товаров используются описания, которые берутся у конкурентов. То есть, это какие-то технические характеристики товаров. Причем сайт является официальным дилером, и условия на контент там накладывают довольно жесткие - многие вещи должны быть описаны слово в слово так, как это дается на сайте вендера, и никакой вольности в этом вопросе не позволяется. Проблема возникает, когда сниппетовщик выбирает одинаковые куски из описания разных интернет-магазинов и, соответственно, сниппеты получаются одинаковыми, и вместо нескольких интернет-магазинов в выдаче по умолчанию остается только один. При этом, из всех результатов это может быть далеко не самый релевантный результат.

Еще один интересный момент, на который стоит обратить внимание – примеси к органическим результатам поиска. Вот алгоритм сработал, построил формулу, формула отранжировала результаты поиска. Но, тем не менее, эти результаты, которые называются органическими, разбавляются еще результатами, получившимися в результате работы каких-то иных алгоритмов, иных формул. В Яндексе сейчас есть, так называемая, спектральная примесь. Это когда до трех мест в топ-10 отдаются результатам по «уточненным» запросам (стандартизированным группам так называемых потребностей) – обзоры, цены, фото, отзывы, «сделай сам» и так далее.

Кроме этой спектральной примеси, так же в топ-10 может отдаваться, так называемая, быстроботовская примесь. Это свежепроиндексированные документы из наиболее приоритетных ресурсов. Где-то месяц назад можно было наблюдать такое интересное явление, когда по очень большому количеству запросов, общих запросов, таких как [сайт Москва] вылезал сайт «Автофургон инфо». И во всех выдачах запросов можно было встретить вот эти автофургоны, так вот он вылезал за счет «спектральной» примеси.

Быстроботовская примесь – это тоже качество, оставляющее желать лучшего, потому что очень часто в эти свежепроиндексиваронные документы, с некоторым количеством приоритетных ресурсов, попадает большое количество ресурсов с тематикой сайта только из-за того, что слова и запросы где-то были употреблены на странице, например, в меню, или просто были найдены в ссылках продажи на сайте. То есть, качество очень часто бывает очень плохим. И не понятно, по каким метрикам оно оценивается.

Если прибавить ко всему перечисленному тот факт, что может быть один или даже два результата на странице, которые по любому занимают первые места, – все это сокращает органическую выдачу в топ-10 буквально до 3, 4, 5 позиций. Соответственно, задача по улучшению характеристик сайта для его хорошего ранжирования по запросу, становится все более непростой.

Если говорить о самом алгоритме ранжирования, то составляющие его таковы:

Текстовая составляющая – это положительная составляющая ранжирования. Сегодня мы видим рост увеличения различных санкций именно за вещи, связанные с текстом документа. Все это приводит к тому, что попытки манипулирования текстовыми факторами ранжирования могут принести больше вреда, чем пользы. Были такие курьезные случаи, когда в результате проблемы на хостинге, когда тексты сайта не индексировались в поисковой машине, а документ находился только по ссылкам, он ранжировался лучше, нежели тогда, когда он был проиндексирован. То есть, здесь дается такая ситуация, когда выдачи за счет факторов ранжирования было меньше, чем какие-то штрафы, которые были наложены за состояние текста на сайте.

Небрежное отношение к тексту тоже чревато проблемами. Здесь дело касается уникальности, вторичности контента, его качества с точки зрения естественности. На эти вещи нужно обращать пристальное внимание. Резюмируя, можно сказать, что не стоит пытаться за счет текстовых факторов сильно улучшать ранжирование сайта. Нормальный, читабельный текст, без всяких портянок, с разумным количеством употреблений ключевых слов, и как можно более уникальный – это все что нужно. Текстовые факторы не такие мощные для коммерческих тематик, там большую роль играют другие факторы. Если говорить о некоммерческих запросах – тогда да, там текстовые факторы в ряде случаев играют большую роль.

Рассмотрим конкретные случаи санкций. Штраф за текстовый переспам, так называемый, порятночный фильтр, был введен в феврале 2010 года, и направлен против чрезмерной концентрации ключевых слов в контенте. Он запросозависим и также зависит от ключевых характеристик документа. Сейчас портянки можно запросто встретить в высококонкурентных топах и в любых коммерческих тематиках, которые нормально ранжируются, и почему-то не влекут за собой штраф за текстовый переспам. Видимо у этих сайтов какие-то очень хорошие поведенческие факторы и наложение санкций не срабатывает, может быть, авторитетность ресурса большая - такие случаи встречаются довольно часто. Здесь нужно обратить внимание, что этот штраф именно направлен против многократного появления ключевых слов, порядка 10-50-100 употреблений, что было очень модно еще пару лет назад, и таким документами пестрели все топы.

Чтобы не попасть под этот штраф, надо выполнять простые рекомендации:

Избегать многократного употребления ключевых слов из запроса в одном предложении.
Употреблять ключевые слова как можно ближе к началу документа.
Избегать участков текста с плотными скоплениями ключевых слов.

Есть еще один штраф за текстовую составляющую – штраф за переоптимизацию. В апреле было массовое введение этого штрафа, именно тогда многие вебмастера получили «письма счастья» о том, что их сайт наказан за переоптимизацию. Штраф этот как раз и направлен против манипуляций текстовыми факторами ранжирования: такими как вхождение, написание текста жирным стилем, злоупотребление выделением. Пока наблюдается, что этот фактор запросонезависим. То есть, он накладывается на страницу и по всем запросам этот штраф действует. Возможно, также зависит и от характеристики документа. Например, если очень много входящих коммерческих ссылок, то может сработать.

Рекомендации:

Также в текстовой составляющей обязательно нужно выделить важные качества контента, такие как:

Уникальность контента
Вторичность контента
Естественность контента
Порнографическая лексика

За эти вещи тоже можно получить различные санкции. Во-первых, уникальность контента. Конечно, хорошо бы было бы, если бы весь контент был бы уникальный. Но этого не всегда можно достичь, потому что многие нехорошие люди имеют привычку контент воровать и располагать у себя на какие-то страницы в сателлитах. Для борьбы с этим, летом Яндексом была введена возможность застолбить права еще на неопубликованный контент, и таким образом, можно себя автогарантировать.

Вторичный контент тоже можно немного выделить. В принципе, контент может быть и не уникален, главное – чтобы тебя считали автором. Тебе будет хорошо, а всем тем, кто у тебя этот контент позаимствовал, им должно быть плохо. Я рекомендую всем очень внимательно относиться к этим вещам, и на все новые тексты лучше посылать заявочку в Яндекс.

Также важную роль играет, так называемая, естественность контента. То есть, насколько текст является для Яндекса естественным, что его создал человек, а не сгенерировал какой-то автомат. Здесь используются, судя по всему, учет лингвистических элементов, распределение частей речи в предложении, насколько используются падежи, устойчивые словосочетания и так далее. Просто какие-то частотные характеристики текста.

Также Сергей порекомендовал избегать порнографической лексики и ссылок на порноресурсы и предупредил, что за эти вещи тоже можно получить неприятные штрафы.

Характеристики документа и сайта. В первую очередь это возраст сайта и страницы. Довольно-таки важный фактор, имеющий сейчас очень большое значение. Сайты, которым до полугода практически нереально продвинуть в Яндексе по более менее конкурентным запросам. Выход сайта на полную мощность возможен где-то через три года.

Еще один важный фактор – употребление ключевых слов в URL и домене.

Формат документа. Здесь все просто - продвигаются только html документы. Все остальные будут продвигаться с большой сложностью.

Наличие попандеров/кликандеров – это то, за что сейчас можно схватить штраф. Об этом Яндекс предупреждал.

И также есть такое понятие, как «плохое окружение». Если данные whois вашего сайта совпадут со значением сайта, которые замечены в каких-то плохих вещах, то это тоже может повлиять при наложении санкций, так называемое АГС может на это реагировать. Сайт может просто пропасть из видимой части индекса при наличии каких-то еще дополнительных условий.

В общем, идет сильное влияние возрастных факторов и сильное влияние доменных факторов. То есть, употребление слов или частичное употребление слов, запросов именно в домене сайта, домене имени. Хотя в последнее время намечается тенденция послабления этого фактора. Сергей считает, что он стимулирует генерацию так называемых «SEO-доменов», когда доменное имя содержит в себе полностью запрос. И, на его взгляд, это является ярким примером несбалансированности факторов. То есть, получается, что «рулят» факторы, которые нельзя улучшить.

Ссылочная составляющая. На данный момент все еще наблюдается большая значимость, этого фактора, особенно для коммерческих запросов. Использование коммерческих ссылок при продвижении по коммерческим запросам все еще остается целесообразным, они работают.

Для некоммерческих – работа ссылочного уже практически сведена к нулю. И продвигать ссылочным некоммерческие запросы – это пустая трата времени. На этом фоне забавляют иногда конкурсы, проводимые различными некоторыми агрегатами, когда предлагают продвинуть некоммерческий запрос в Яндексе с помощью CDI, системой, которая закупает коммерческие ссылки. По факту получается то, что выигрывает тот, кто имеет лучшие показатели по другим параметрам. И возрастает значение статистических факторов для некоммерческих запросов, так называемая авторитетность ресурсов. Потому что коммерческие ссылки уже практически бесполезны.

При ссылочной составляющей можно выделить следующие составляющие, которые могут привести к санкциям:
• «Ссылочный взрыв»
• Плохие ссылки
• Коммерческие ссылки
• Участие в линкобменниках (link-farms)

«Ссылочный взрыв» - это быстрое наращивание ссылочной массы. Заключается в обнулении значений всех ссылочных факторов для ссылок, которые причастны к этому ссылочному взрыву. Они все будут бесполезны. Естественно, когда они сначала учитывались, а потом, когда перестают учитываться, происходит падение в позициях.

Плохие ссылки. Яндекс классифицирует ссылки на хорошие и плохие. Плохие дают нулевой вклад. Также замечалось наложение штрафа при большой доле плохих ссылок при каком-нибудь запросе. Если очень много проставлено ссылок в плохих ресурсах, то это не то что, как бы не дает вклада, а может даже принести вред в виде штрафа.

Коммерческие ссылки. Здесь очень важный нюанс. Коммерческие ссылки – это те, которые проставлены на коммерческих условиях. Яндекс очень хорошо их умеет определять. Все читали мадридский доклад Яндекса, в котором изложена простая, логичная схема, по которой все это очень быстро определяется. Но при ранжировании по коммерческим запросам, коммерческие ссылки все-таки еще учитываются, это надо помнить. Есть некие ограничения, например, временная задержка учета этих ссылок, так называемая «песочница». Может где-то месяц или два ссылка может не учитываться, потом начинает учитываться. Это логично, потому что средний срок коммерческий ссылки на самом деле невелик. Таким образом можно отсечь большое количество коммерческих ссылок и свести к нулю так называемое участие в линкообменниках (link-farms). Это тоже может привести к санкциям вплоть до полного обнуления значения ссылочных факторов. Поэтому нужно быть очень аккуратным при обмене ссылками.

Региональная составляющая - в последнее время имеет очень большое значение. Сильное влияние имеет региональная привязка сайтов. Тонкий момент – геозависимые запросы, которые включают в себя название регионов. Например, [такси москва] –ранжируется, как геозависимый запрос для данного региона. На это тоже надо обращать внимание. Отмечаются определенные проблемы для мультирегиональных сайтов – сайтов, целевой аудиторией которых являются пользователи из разных регионов. Они заключаются в ограниченности числа привязываемых регионов к сайту. То есть, нельзя сделать очень много регионов.

Рекомендации:

Выбор соответствующего домена 1-го уровня для сайта (напр., для России – .ru)
Присвоение сайту требуемого региона
Употребление названия требуемого региона в тексте документа
Получение входящих ссылок с сайтов требуемого региона • Употребление названия требуемого региона в текстах входящих ссылок на документ
Добавление адреса организации в требуемом регионе

Присвоение сайту требуемого региона. Если у нас мультирегиональный сайт, то необходимо создание отдельного сайта или хотя бы поддомена под каждый регион. Употребление названия требуемого региона в тексте документа – это уже то, что касается улучшения факторов.

Далее Сергей перешел к наиболее интересной группе факторов, которые в последнее время вызывают очень много вопросов – пользовательским факторам:

Кликабельность сайта/страницы в выдаче:
• СTR
• временные показатели сессии
• количественные показатели сессии

Посещаемость сайта/страницы
• общая
• по видам источников трафика – поисковый, ссылочный, закладочный и т.п.

Поведение пользователя на сайте/странице
• активные действия пользователя
• проведенное время
• внутренние переходы
• переходы с сайта на другие сайты

Срезы факторов по типу пользователей
• пришедшие по данному по запросу
• из данного региона

Несколько рекомендаций по улучшению поведенческой составляющей:
• Целевая страница должна быть лучшим ответом на запрос
• Целевая страница должна побуждать пользователя к выполнению действий
• Сайт должен внушать доверие пользователю
• Сайт должен быть удобным для пользователя
• Привлекательность сниппетов
• Кросс-браузерность
• Корректная кодировка
• Стабильная работа сайта

Сергей подробно остановился на кликовых факторах, которые он считает ответственными за кликабельность сайта или документа в результатах выдачи. На его взгляд эти факторы имеют несбалансированное мощное влияние. Яндекс сейчас ставит кликстрим на эти кликовые факторы. Наблюдается, как за счет чисто кликовых факторов сайты с молодым возрастом, с не очень хорошим набором текстовых факторов, ссылочных и так далее могут из каких-то 500 мест за один присест попасть в топ-1, топ-2 по высококонкурентным запросам.

Получается, что кликовые факторы настолько мощные, что они просто бьют все остальные факторы. Положительная обратная связь наблюдается. Если ты не находишься в топ-10, в видимой части выдачи, то тебе никак нельзя улучшить кликовые факторы, по тебе просто не будут кликать. А если у тебя плохие кликовые факторы, то ты никогда не попадешь на первую страницу. То есть, получается, что кто первый встал, того и тапки, те получают какие-то клики и отсюда идет естественная реакция оптимизаторов на пресервацию топа – это накрутка этих факторов, потому что улучшить их никак нельзя, кроме как попав в топ.

В последнее время вокруг этих кликовых факторов очень много интересных событий происходит. Стали появляться сервисы, которые предлагают накрутку этих факторов. Судя по всему, Яндекс оказался не готов к такому повороту событий, потому что все эти вещи продолжали учитываться в течение года. Никаким образом Яндекс на них не реагировал, никаким образом трафик не фильтровал. Но все-таки, в конце концов, были приняты жесткие, почти полицейские меры против накрутчиков. Реакция оптимизаторов на такие вещи последовала странная – сразу стали накликивать факторы конкурентам. Другие прошло ушли в тень и продолжают разрабатывать закрытые инструменты для управления поведенческими. Такие инструменты эксплуатируются, ими пользуются, и они дают результаты.

Что же нас ждет дальше – очистка или «зачистка»? Сможет ли Яндекс очищать или же будет продолжать показательные полицейские спецоперации? Слишком жесткая очистка – приведет к уменьшению объемов учета органического кликстрима. Это не совсем корректно. Чем меньше данных, тем будет хуже для алгоритма. Слишком мягкая очистка – будет стимулировать кликфроды с целью просачивания сквозь фильтры, стимуляцию к поиску закрытых «беспалевных» методик. Продолжение «зачистки» - стимуляция «подстав» конкурентов, возникновение и развитие соответствующих сервисов, увеличение кликфрода, соответственно. Будут развиваться соответствующие сервисы - те, которые будут предлагать вместо накрутки скрутку конкурентов.

Что же будет дальше? Скорее всего, социальные сигналы. Сейчас поисковые машины активно рассуждают на тему учета различных сигналов социальных систем. Вот интересно, готовы ли они к тому, что эти вещи будут накручиваться еще похлеще, чем поведенческие факторы?

Подробности: http://www.searchengines.ru/articles/sergey_lyudkevi.html#ixzz2PNxRgfeW
Follow us: Searchengines.ru on Facebook

Какие сайты Яндекс считает полезными

Суббота, 23 Марта 2013 г. 22:20 + в цитатник
1. Качество текста.
Все мы знаем, что чем более уникальный контент мы размещаем на страницах нашего сайта, тем лучше его «кушает» Яндекс. Однако в последнее время сама уникальность уже не является гарантией для хорошего положения в выдачах. Теперь у Яндекса появились новые требования к контенту, особенно к текстовому:

- отсутствие агрессии, призывов к насилию и ненормативной лексики;

- общая грамотность – и вы не ослышались – теперь подобно школьному учителю Яндекс будет банить сайты, в тексте которых число ошибок превысит 1-ну ошибку на 20 слов. Сделано это для того, что многие веб-мастера научились добиваться «уникальности» путем изменения написания слов украденных ими постов. Так что теперь плохо будет не только им, но и тем, кто в школе учился на «двойки»;

- так же вниз поисковых запросов будут отправлены все посты меньше 2.000 знаков и больше 10.000. Доказано, оптимальный объем поста для Яндекса колеблется между 3.300 и 5.000 знаков. Так что сократите или добавьте, и тогда картина выдачи вашего сайта сразу изменится.
2. Количество ключевых фраз.

Этого не скрывает сам Яндекс: оптимальное количество ключевых фраз для него 3 на одну страницу. Причем желательно чтоб 2 из них были написаны в одном падеже. Правда оптимизаторы со стажем успели вычислить, что Яндекс еще нравится, чтобы между каждым из анкеров находилось как минимум 1000 «чистых» знаков. Но насчет этого мы ничего не можем сказать, кроме как – экспериментируйте, и будет вам счастье.
3. Узкая специализация.

Так же Яндекс любит сайты узкой специализации. Потому не старайтесь свалить все в кучу, делая на своем сайте множество разных рубрик, чтобы охватить как можно большее число тем. Лучше разделите такой сайт на несколько разных, чтобы один рассказывал о ремонте, другой - о сексе, а третий – о путешествиях на кораблях, и только тогда каждый из них получит шанс стать лидером по своей суженной до единственного ключевого запроса теме.
4. Картинки.
Проверено и доказано – Яндекс терпеть не может сайтов с картинками. Мало того, выбирая между двумя сайтами с картинкой одного размера и одного разрешения, он выберет не фотоальбом и не подборку «клипартов и изображений», а сайт, в котором вполне возможно это изображение окажется единственной иллюстрацией. А все потому, что фильтры Яндекса считают более «правильными» сайты, в которых количество текста превышает количество иллюстраций хотя бы в 4 раза, и именно их поднимает на самый верх.
5. Отказ от приемов черной оптимизации.

Про клоакинг, дорвеи, редиректы и прочие методы черной оптимизации написано столько, что нет смысла объяснять, что подразумевается под каждым из перечисленных нами понятий. Скажем только одно – все это работало в году так 2002, и еще немного в 2005. Теперь Яндекс стал настолько умен, что без труда найдет среди своих 1200 различных фильтров тот самый, что без труда отыщет на страницах вашего сайта свопинг или дорвей, и… нет, не обязательно отправит ваш сайт в песочницу, но покажет его на странице скажем так 200-той – а едва ли какой-нибудь пользователь забирается так далеко.
6. Скорость добавленья контента.

В отличие от Гугла, Яндекс любит сайты с постоянным пополненьем контента. Однако и на этот случай у него есть своя метода отбора между сайтами одинаковой тематики. Выглядит она приблизительно так:

Яндекс считает правильным и полезным:

Новостной сайт, если в него добавляется не больше 200, но и не меньше 30 новостей за день.

Сайт любой тематики с числом новых ежедневных постов от 30 до 5, и минимум 20-25 комментариями.

Форум – минимум 100 новых сообщений в день, 20 регистраций и максимум 30 ссылок в самих комментариях.

Сайт-визитка – не более, но и не менее 2-3 изменений и добавлений в месяц.

Блог – 2-3 поста каждый день. Большее их число заставляет Яндекс думать о блоге, как об источнике спама и проданных ссылок. Меньшее – как о том, что блог благополучно забросили.
7. И немного о языках.

В последнее время Яндексу стало не все равно на каком языке написан контент вашего сайта. И дело не в шовинизме, а в том, что сайтов стало так много, что теперь Яндекс отбирает их еще и в соответствии с регионом запроса. И потому, если на вашем сайте есть англоязычные или какие-нибудь иные тексты, то такой сайт при всей его популярности, может оказаться внизу многих поисковых выдач. Доходит до анекдотов: так недавно сайт «стоматология в Москве», стал лидером в киевской выдаче на запрос «свежие анекдоты» только потому, что в нем оказался благодарственный комментарий на украинском языке.

Вот и все правила. И стоит вам ежедневно в течение хотя бы нескольких неделю неуклонно соблюдать их, и ваш сайт или блок автоматически переместятся на самый верх любого поискового запроса по любой поисковой фразе.


Источник: http://live-code.ru
http://sofftina.ucoz.ru/publ/raskruchivaem_sajt_sa...iny_vydachi_jandeksa/11-1-0-56

Оценка позиции сайта в результатах поиска в поисковиках

Понедельник, 18 Марта 2013 г. 18:27 + в цитатник
Количественная разница между крайними величинами CTR первой десятки выдачи составила почти в 5 раз. Подобная цифра — разница в концентрации внимания посетителя сайта между первой и 10 ссылками ТОП-10 Гугл. Следовательно, мы можем применить систему коэффициентов, применяемую для оценки визуального внимания посетителей сайта при просмотре результатов поиска к оценке позиций сайта в поисковиках. Ниже приводим вам эти коэффициенты:

1 позиция — 1
2 позиция — 1
3 позиция — 1
4 позиция — 0,85
5 позиция — 0,6
6 позиция — 0,5
7 позиция — 0,5
8 позиция — 0,3
9 позиция — 0,3
10 позиция — 0,2

Эффективные показы сайта

Произведение частоты поискового запроса на коэффициент его позиции в результатах поиска в поисковиках называется количеством эффективных показов. Количество эффективных показов — это предположение, сколько раз ссылка на предполагаемый сайт будет на виду у пользователя, задавшим данный поисковый запрос.

Чем же обычные показы отличаются от эффективных показов? Возьмем к примеру запрос "создание сайта", для него Рамблер указывает частоту примерно 3500 запросов в месяц. Все ссылки первой страницы результатов поиска показываются на компьютере посетителя, которые ввели запрос «создание сайта», однако, с учетом ранее указанных коэффициентов видимости:

первые три ссылки увидят все пользователи, кто задал этот поисковый запрос, другими словами все 3500 показов этой страницы для сайтов ТОП-3 будут эффективными;
четвертую ссылку не смогут увидить посетители, у которых она расположена не на первом экране и которые осуществили переход по трем первым видимым ссылкам и остались удовлетворены полученными результатами. Т.е. в независимости от тех же 3500 показов, количество реальных показов уменьшилось. С учетом коэффициента для четвертой позиции, оно равно 3500 * 0,85 = 2975.
Аналогично — для каждой следующей позиции.

Следовательно, каждый из целевых запросов семантического ядра сайта при анализе позиций в Яндексе, Рамблере и Гугл предоставит нам три различных результата эффективных показов. Просуммировав количество эффективных показов по всем целевым запросам семантического ядра сайта и всем поисковикам, мы в нужный момент можем получить реальную, независимую от Интернет-счетчиков и других систем статистики, доступную характеристику видимости сайта в поисковиках.

Как повысить траст

Понедельник, 25 Февраля 2013 г. 11:14 + в цитатник
Как расчитывается траст?

Особенность алгоритма траста в том, что он самообучающийся. Работает приблизительно так:

а) ацессоры (живые оценщики) оценивают качество отдельно взятых сайтов (десятков тысяч) и распределяют их по группам (приблизительно) – сайты которым можно доверять, сомнительные сайты, откровенные говносайты и т.д.

б) алгоритм анализирует сайты каждой группы, пытаясь найти между ними закономерные показатели и присваивая каждому ппоказателю отдельный коэфициент;

в) на основе выявленных показателей строится алгоритм определения траста, который и оценивает все сайты из базы.

Таким образом, формула расчета траста не известна даже самим разработчикам. Когда-то Илья Сегалович, отвечая на вопрос о расчете траста сказал, что даже если его поймают и будут пытать под гипнозом, это всеравно не поможет, так как формула постоянно меняется.
3. Как работает траст?

Высокий траст является неоспоримым преимуществом при ранжировании сайта по любым поисковым запросам независимо о того, оптимизирована ли страница под этот запрос и имеются ли внешние ссылки на эту страницу с кеями в анкорах.
Как написал Сергей Кокшаров в статье Траст и авторитетность сайта в поисковых системах, траст – это причина, по которой некоторые сайты сейчас попадают в топ по конкурентным поисковым запросам, лишь опубликовав страницу, связанную с этим ключевым термином.

С другой стороны, сайты с низким или отрицательным трастом очень тяжело двигаются в топ даже при умнейшей внутренней оптимизации и больших бюджетах на покупку ссылок. Вы это уже замечали, правда?
4. Какие факторы влияют на траст?

Если у вас есть несколько десятков продвигаемых сайтов, и одни из них уверенно сидят в топе при любых алгоритмах, а другие никак не выходят в топ при множестве усилий – у вас есть отличный материал для определения факторов, влиющию на траст сайта. Я для себя прежде всего выделила такие:

1) Возраст сайта.
Я имею в виду не возраст домена, который можно посмотреть во whois, а время нахождения сайта в индексе. Чем старше сайт в этом плане, тем больше ему доверяет поисковая система.

2) Естественные ссылки на сайт
После мадридского доклада Яндекса не осталось сомнений, что его алгоритм способен различать коммерческие (читай – продажные) и некоммерческие ссылки. А в том, что это умеет делать Google.com, сомнений тем более нет. Я считаю, что для определения уровня траста учитываются в большей степени ссылки, которые поисковик считает естественными. Покупные ссылки принимаются в счет для ранжирования по ключевым словам (особенно в Яндексе), но скорость их учета и вес определяются какраз тем же трастом. Почему я так считаю? Среди моих подопечных сайтов есть такие, в бэклинках которых покупные ссылки с анкорами составляют не более 10% общей ссылочной массы, остальное – естественные ссылки. Эти сайты уверенно сидят в топе по ВЧ, в то время как другие сайты с множеством покупных ссылок приходится постоянно “вытягивать” по таким же ВЧ.

3) Ссылки с сайта
Здесь важно качество сайта (акцептора), на который ссылается ваш сайт (донор). Парадоксально, но для Яндекса продажность этих ссылок не имеет значения – главное, что б сайт, на который вы ссылаетесь, не был говносайтом. Google.com не любит продажные ссылки однозначно.

4) Качество сайта.
Если кратко, то я имею в виду:
– уникальность и значимость контента;
– уникальность структуры и дизайна;
– внутренняя оптимизация;
– скорость загрузки страниц, качество хостинга;
– отсутствие ошибок в верстке;
– наличие контактов (форма обратной связи не в счет).

5) Посещаемость сайта
Для многих это вопрос спорный. Но, я думаю, поисковые системы уже давно научились определять посещаемость, по крайней мере, для большинства сайтов. Для тех сайтов, где ее определить невозможно, она скорее всего просто не учитывается. Для остальных же посещаемость и поведение пользователей на сайте может определяться с помощью тулбаров и спецметрик (GoogleAnalytics у Google, Яндекс.Метрика у Яндекса). Вы никогда не задумывались, почему такие сложные системы аналитики распространяются бесплатно?

6) Ссылки с особо трастовых ресурсов
Тут все просто – dmoz.org для Google, yaca.yandex.ru – для Яндекса.

Конечно, факторов намного больше, чем перечислено в этом пункте, но я думаю, что коэфициент влияния у остальных факторов существенно меньше.
5. Как повысить траст сайта?

Если ваши сайты не лезут в топ достаточно долгий период, и ссылки покупаются, но не действуют, советую поработать над повышением траста.

Увеличиваем возраст молодого сайта.
Если у вас молодой, но качественный СДЛ, можете воспользоваться моим советом по увеличению траста. Найдите старый, давно проиндексированный домен, и склейте его со своим сайтом. Сколько еще проработает такой метод – неизвестно, но пока что он работает. Для говносайтов можете так не стараться – всеравно не поможет

Делаем ссылочную массу естественной.
Есть хорошо работающий метод наращивания естественых ссылок, в который почему-то мало верят – отличный контент. Это может быть информация, сервис, акция, конкурс, голосовани и т.д.
Если у вас не хватает времени на такой креатив, попробуйте пойти другим путем – заставьте поисковик поверить в то, что бОльшая часть ссылочной массы – естественная (напирмер, употребляйте в анкоре URL ссылки вместо кея, ставьте ссылки не только на продвигаемые страницы, но и на другие и т.д.) Еще, старайтесь, что б на сайт ссылались хорошие сайты, а не ГС (особенно в тех случаях, когда вы платите за ссылку).

Ссылаемся только на качественные сайты.
Тут без вариантов.

Повышаем качество сайта, работаем над посещаемостью.
Возможно, в этом вам помогут другие мои статьи:

Про отличия СДЛ и ГС;
О внутренней оптимизации;
Про внутреннюю перелинковку;
Про качество текстов;
Про пять ошибок, мешающих сайту выйти в Топ;
Про правильные URL страниц;

Ну и конечно можно добавить сайт в Дмоз и в Яку (если позволяет бюджет).
6. Как не навредить трасту своего сайта

К сожалению, доверие можно не только завоевать, но и потерять. Вот чего не стоит делать с сайтом, что б не потерять доверие поисковых систем:
– не размещать на сайте неуникальный контент и немодерируемые комментарии;
– не покупать много ссылок за один раз;
– не размещать все ссылки с кеями в анкорах;
– не резко снимать все ссылки;
– не ссылаться со своего сайта на кого попало;
– не размещать ссылки на некачественных сайтах;
– не размещать сайты на унылом хостинге;
– не пользоваться шаблонными темами.

Если короче – просто делайте сайты, достойные доверия как поисковиков, так и пользователей, и вы не прогадаете.
http://optimizatorsha.ru/master-classes/trust/


Поиск сообщений в Olga21
Страницы: 7 [6] 5 4 3 2 1 Календарь