-Поиск по дневнику

Поиск сообщений в Olga21

 -Подписка по e-mail

 

 -Постоянные читатели

 -Статистика

Статистика LiveInternet.ru: показано количество хитов и посетителей
Создан: 20.10.2009
Записей: 146
Комментариев: 8
Написано: 161





СТРУКТУРИРОВАНИЕ КРУПНОЙ КОМПАНИИ ПОД SEO

Понедельник, 23 Апреля 2012 г. 10:46 + в цитатник
В ходе панельной дискуссии на конференции SMX West сотрудник компании Adobe Уоррен Ли дал несколько полезных советов по организации работы специалистов по SEO в крупных организациях. Поскольку Уоррен отвечает за поисковую оптимизацию на Adobe.com, Photoshop.com и других брендовых сайтах компании, к его советам стоит прислушаться.

По мнению Уоррена, основные сложности применительно к SEO в крупных организациях связаны со следующими моментами:

Совместная работа подразделений.
Концентрация внимания на критически важных инициативах.
Получение поддержки проектов, направленных на развитие контента, оптимизацию, приращение числа обратных ссылок и архитектурные улучшения сайта.
Баланс между подразделениями.
Рассмотрим их по порядку

Совместная работа подразделений

Здесь проблемы возникают в том случае, когда специалисты по SEO сконцентрированы в каком-то одном департаменте. Обычно это департамент маркетинга или IT.

Качество поисковой оптимизации во многом зависит от принимаемых решений, которые касаются сайта, технических вопросов, маркетинга продуктов и услуг. Это означает, что командам приходится усиленно работать над сохранением единой действующей стратегии. На практике это означает, что специалистам по SEO как правило приходится быстро адаптироваться к решениям, принимаемым другими командами.

Удачное преодоление этого препятствия определяется способностью команды, занимающейся SEO, добиться интеграции стратегий поисковой оптимизации на уровне всей компании. Для этого необходимо понимать, на какие административные рычаги и когда именно нужно давить. А уже это в свою очередь подразумевает понимание командой того, работа каких подразделений затрагивает SEO.

В конечном счёте стратегии поискового продвижения должны стать неотъемлемой частью работы компании. Для этого нужна команда с совершенно определённым набором качеств, а организационная структура и культура в компании должны поддерживать эту концепцию.

После того как команда выяснила функциональную структуру компании, ей необходимо выстроить отношения со стратегическими партнёрами внутри организации. В крупных компаниях такими партнёрами будут отделы, которые занимаются PPC-кампаниями, встроенным поиском по сайту, работой в соцсетях, аналитикой, IT, безопасностью сайта, маркетингом, контент-менеджементом, QA и тестированием сайта.

SEO относится к числу направлений в работе, где всегда есть чем заняться, и у каждого решения есть своя стоимость. Это означает, что для достижения положительных сдвигов необходимо внимательно относиться к тому, на что расходуется ваше время, чтобы неизбежные задачи, требующие срочного решения, не отвлекали вас от работы над стратегически важными проектами.

Концентрация внимания на критически важных инициативах

Для того, чтобы достичь состояния равновесия между проектами и задачами, необходимо выработать такую культуру командной работы, при которой приоритеты определяются данными и результатами, а поддерживаются — эффективным обучением и коммуникацией со всеми участниками процесса.

На практике процесс, основанный на работе с данными, подразумевает исследование ключевых метрик, определение точки отсчёта успеха и вычисление рычагов SEO, за которые нужно тянуть для получения нужных результатов. Это позволяет продумать действительно реалистичную стратегию продвижения.

В Adobe это было сделано в прошлом году. Компания наняла команду квалифицированных специалистов по поисковому продвижению, а также позаимствовала ключевые элементы Agile — популярной модели разработки программного обеспечения. Среди таких элементов поддерживаемый список возможных проектов (на текущий момент их более 150) с ежеквартальным голосованием, а также спринты по каждому основному проекту два раза в месяц.

Для удержания внимания на приоритетах не менее важно фильтровать проекты по критерию значимости для ключевых характеристик SEO — архитектуры сайта, внутренних и внешних ссылок, нового и существующего контента.

Дополнительными проектами и критериями являются оптимизация рабочего процесса, совместная оптимизация стратегий рекламного и поискового продвижения, а также вовлечение команды, занимающейся социальными медиа.

Получение поддержки

Для того, чтобы описанная выше методология работала, необходима поддержка руководством работы по созданию контента, оптимизации и внесению архитектурных улучшений. Как показало недавнее исследование, проведённое Ребеккой Либ из Altimeter Group, в компаниях SEO часто считается низкоприоритетным направлением, которое вследствие этого получает меньше ресурсов на развитие.

В тех организациях, которым удалось с этим справиться, оптимизаторы привлекали внимание к необходимости своей работы чёткими примерами успехов, не забывая при этом показывать неудачи, объясняющиеся системными недочётами.

Озвучивание как уже состоявшихся неудач, так и вероятных будущих (особенно если меры не будут приняты), работает невероятно эффективно. Одним из мощнейших катализаторов является демонстрация того, что делают конкуренты и какую выгоду они от этого получают. Ваша задача в данном случае — показать, во что компании обходится отсутствие целостной стратегии SEO.

Стоит помнить, что когда вы указываете на успешные результаты реализации стратегий поисковой оптимизации, не стоит приписывать себе все заслуги. Постарайтесь указать, какие департаменты также участвовали в работе, и поблагодарите их. Так вам будет гораздо проще заручиться их поддержкой.

Баланс между подразделениями

Нахождение баланса между участвующими подразделениями является достаточно непростой задачей, с которой сталкиваются практически все крупные компании. Здесь могут помочь три стратегии: обучение, графики ответственности, регулярные встречи.

Перекрёстное обучение необходимо для того, чтобы понимание поисковой оптимизации стало частью организации. Без этого вы не сможете сделать частью бизнес-процесса создание контента или акции в социальных медиа.

При обучении постарайтесь охватить следующие основные концепции:

Ценность естественного поискового трафика для успеха работы компании.
Успех поисковой оптимизации невозможен силами лишь команды SEO или консультантов по маркетингу, необходима совместная работа всех, кто так или иначе имеет дело с публикацией контента на сайте, в соцсетях и отраслевых изданиях.
Если доступ к CMS есть практически у всех, необходимо раннее и частое взаимодействие со специалистами по продвижению.
Необходимо прицельное обучение отдельных групп сотрудников — редакторов, QA, специалистов по SMM и т.д.
Здесь критически важен поиск верных точек соприкосновения с другими командами.

Помимо обучения коллег важно понимать, как именно протекают их рабочие процессы и когда именно у них возникает необходимость учитывать стратегии поискового продвижения. Когда это понимание достигнуто, можно перейти к использованию графиков ответственности, таких как DACI и RASCI. Это необходимо для завершения основной работы по координации работы подразделений.

Выводы

Для преодоления типовых сложностей, связанных с интеграцией практик SEO в крупных компаниях, специалистам по оптимизации важно активно участвовать в проработке приоритетных инициатив. Критически важным является объяснение сути и основных принципов SEO, выстраивание рабочих отношений между подразделениями и совместная работа по ключевым метрикам.

Выступление Уоррена Ли было записано и переработано в статью "How To Structure Your Organization For SEO Success" Эриком Энге (Search Engines Land).

http://subscribe.ru/archive/inet.search.seo/201204...mp;uuid=gn3oSSLIYsYeQ5Hv1F2L3A

ОПТИМИЗАЦИЯ ПОД РЕЗКОЕ ПОВЫШЕНИЕ СПРОСА

Понедельник, 23 Апреля 2012 г. 10:34 + в цитатник
Работать с пиком поисковой активности, вызванной резким повышением спроса, не так легко, но и выигрыш может быть немалым. Если вы знаете, когда именно следует начинать поисковую оптимизацию, вы получаете огромное преимущество перед конкурентами. Как же делать это эффективно? Своим опытом поделился специалист по продвижению Питер ван дер Грааф.

Предсказуемые пики количества поисковых запросов

Внезапные пики в объёме поисковых запросов намного более предсказуемы, чем это может казаться. В каждом году есть одни и те же сезоны, одни и те же праздники, под которые часто подгоняются новые продукты во многих отраслях промышленности.

Отличным примером предсказуемых циклов жизни является производство мобильных телефонов, где новая топовая модель выходит примерно раз в пять месяцев.

Пик поисковых запросов часто приходится на первый месяц продаж. Если вы начали заниматься продвижением после выпуска товара, считайте, что уже опоздали. Но для успешного и своевременного продвижения в поисковых системах существует работающая стратегия.

Своевременное вхождение в топ выдачи

Давайте вспомним азы. Что такое высокая позиция в выдаче? Это свидетельство того, что поисковик считает страницу авторитетнее прочих. Если вы хотите, чтобы страница висела в топе в момент пика поисковых запросов, вам необходимо получить как можно больше обратных ссылок заранее. К примеру, если вы одним из первых опубликовали материал о новом мобильном телефоне, весьма велика вероятность того, что на вас будут ссылаться многие первые покупатели этой модели.

К моменту пика вам нужно начинать извлекать непосредственную выгоду из уже хорошо ранжирующейся страницы, поэтому там можно разместить коммерческое предложение. По мере спада интереса к товару другие сайты могут вытеснить вас из топа, но к тому моменту вы уже выжмете из темы всё, что можно, и будете работать над следующим объектом повышенного спроса, тем самым опережая других.

Одни ссылки оказывают влияние на ваши позиции лишь через некоторое время; другие — практически мгновенно, но этот эффект со временем проходит. Эффективная стратегия подразумевает использование комбинации из разных видов ссылок. Вернёмся Рассмотрим её на примере с мобильным телефоном.

При появлении первых слухов о новой модели телефона создайте страницу, на которой будет указано предполагаемое название модели и приведена подборка слухов.
Когда с названием модели появится какая-то определённость, поработайте с соцмедиа. К примеру, можно создать опрос, какие функции пользователям хотелось бы увидеть, и запустить ссылку на опрос в соцсети. Это даст кратковременный пик посещений, необходимый для следующей фазы продвижения.
Когда модель официально объявлена, будьте одним из первых опубликовавших пресс-релиз и используйте для этого уже существующую страницу. Обновляйте её по мере появления новой информации, чтобы у посетителей сайта появилась необходимость почаще туда заходить и желание ссылаться на неё. Это дополнительно прирастит ваши позиции.
Используйте ту же страницу с тем же URL для публикации первого предварительного обзора. Старый контент вы при необходимости всегда можете перенести на другую страницу. Поскольку пользователи уже следят за страницей, на предварительный обзор тоже будут активно ссылаться.
Используйте этот URL снова и снова для публикации новостей, предварительных заказов и, наконец, продаж.
В этой точке активную работу по наращиванию массива обратных ссылок можно прекращать. Основные позиции скорее всего будут сохраняться около двух месяцев, в течение которых произойдёт максимум продаж.

Когда эта новая модель телефона перестать быть такой уж новой, вы даже можете сменить URL или сделать редирект на страницу о более новой модели с (вероятно) частичным совпадением ключевых слов. Последний вариант даёт вам хороший рывок на старте для новой раскрутки.

Советы

Напоследок Питер ван дер Грааф даёт несколько советов:

Не переставайте следить за рынком и пытаться предсказывать, что будет следующим объектом внимания в индустрии.
Внимательно наблюдайте за социальными медиа, ищите инсайдерскую информацию, чтобы первыми узнать о новой терминологии, которая превратится в трендовые ключевые слова.
Рисуйте схемы развития предыдущих похожих кампаний продвижения, чтобы лучше понимать цикл жизни ключевых слов.
Придумывайте удачные слоганы для каждой фазы цикла жизни проекта по раскрутке и собирайте все входящие ссылки на один URL.
Наконец, всегда будьте готовы к новой пиар-акции!

Статья использует материалы публикации \"Timing Your SEO Efforts to Rank During Traffic Peaks & Spikes\" в блоге Search Engine Watch.

http://subscribe.ru/archive/inet.search.seo/201204...mp;uuid=gn3oSSLIYsYeQ5Hv1F2L3A

СПОСОБЫ И ОГРАНИЧЕНИЯ РАДИАЛЬНОЙ ПЕРЕДАЧИ ИНФОРМАЦИИ

Понедельник, 06 Февраля 2012 г. 10:48 + в цитатник
В поисковой оптимизации, как и в физике, с некоторой периодичноcтью появляются свои «теории всего». Среди таких теоретиков, которым удаётся объяснять многие закономерности, выделяется автор сайта SEO Theory Майкл Мартинес.

Буквально позавчера Майкл опубликовал достаточно интересный материал, который продолжает его серию наблюдений и связывает воедино теорию радиального распространения информации, теорию сетей и закон убывания доходности.

Основная мысль построена вокруг идеи, что когда вы создаёте источник информации (грубо говоря, публикуете некоторый материал), информация начинает волной расходиться во все стороны. Среда получает и передаёт эту информацию, но некоторые характеристики среды сопротивляются этой передаче. Например, на определённом расстоянии информация теряет радиальное движение.

Майкл предлагает в качестве иллюстрации простой пример: его блог является центром радиального поля информации о концепциях поисковой оптимизации. Информация исходит от него в нескольких направлениях: через аккаунт в Твиттере, два механизма подписки на сайте, RSS-потоки для постингов и комментариев к ним, а также через обратные ссылки.

Информация достигает реципиента в том случае, если она воспроизводится на другом сайте, или если ею делятся в соцмедиа. Подробнее об этом написано в более ранней статье автора \"Simple Wave Theory for the Web\" («Простая волновая теория для Интернета»).

Сопротивляемость среды можно представить себе как степень отсутствия интереса к передаваемой информации. Иными словами, люди, более всего склонные среагировать на эту информацию и поделиться ею, скорее всего уже подписаны на RSS-ленту, читают аккаунт в Твиттере, получают уведомления по почте и т.д. Однако их собственные лояльные читатели уже не так склонны воспринять и передать информацию дальше, поскольку не находятся в первом круге реципиентов.

Таким образом передача информации ослабевает после прохождения первого круга читателей — лояльных реципиентов, которые достаточно близки к центру радиального поля информации для того, чтобы получать всю распространяемую информацию. Количество читателей в первом круге определяет силу радиального поля. Грубо говоря, если у одного блога только один лояльный читатель, а другого — десять тысяч, то радиальное поле второго блога в десять тысяч раз сильнее поля первого блога.

Сравнения такого рода скорее относительны чем абсолютны, примерно так же, как гравитационные поля относительны к массе создающих их тел. Важно понимать, как меняется сила радиальных полей, потому что они имеют прямое влияние на теорию вирусной пропаганды.

Сила вирусного поля коррелирует с радиальной передачей информации

Для демонстрации этого тезиса представим себе следующую ситуацию. Допустим, вы живёте в коттеджном посёлке и хотите добиться принятия нового закона, по которому можете пересекать любые частные владения. Чтобы этот закон прошёл, вам необходимо склонить соседей на вашу сторону. Но ваш сосед напротив возражает против этой инициативы.

В этом вымышленном сценарии вы и ваш оппонент должны охватить как можно большее число соседей и убедить их принять вашу точку зрения, чтобы победить большинством голосов. Лучшей стратегией будет передать информацию как можно большему количеству людей за один раз.

Для этого вам нужно более сильное радиальное поле, чем у вашего оппонента. Если вам удалось создать такую сеть контактов, что за один ход вы охватываете большее количество человек, чем ваш оппонент, у него остаётся три варианта: сдаться, попробовать усилить своё радиальное поле, либо увеличить частоту передачи, чтобы его информация доходила чаще, чем ваша.

Иными словами, вы можете сузить охват вирусного поля, чтобы сконцентрировать передачу сообщения по сравнительно небольшому каналу, что позволит передавать информацию быстрее и чаще. Задача канала в этом случае будет состоять в том, чтобы дотянуться как можно дальше в массу людей, которые ещё не приняли ничью точку зрения. Эта стратегия работает в том случае, если вы можете дотянуться до людей, чьё собственное «вирусное» поле так же сильно, как и ваше. В этом случае сообщение сможет уйти дальше с такой же силой.

Обратно к теории сети

Давайте ненадолго отвлечёмся от теории вирусной пропаганды и представим себе эту ситуацию с точки зрения узлов сети, которые получают и передают информацию по цепочкам. Если исходить из обычной частоты передачи, т.е. когда все узлы передают информацию с одинаковой скоростью, то сообщение, которое достигло максимального количества узлов с большинством сторон, является сообщением, переданным узлами с наибольшим количеством сторон или наибольшей соединительной насыщенностью (см. статью \"Percolation Theory and the Web\").

Чем больше сторон содержит узел, тем больше его относительная частота передачи ифнормации. Таким образом узлы с максимальным количеством сторон являются наиболее важными и помогают передаче сообщения от исходного узла больше других.

Звучит знакомо? Примерно так работает PageRank. Страницы с большим количеством обратных ссылок или со ссылками от важных страниц сами становятся важными. Но, как и в случае с PagRank, существует коэффициент затухания, ослабляющий силу важных узлов. Существует вероятность того, что у каждого узла есть одна или больше сторон, связанных с узлами, уже получившими информацию, и эффективность таких узлов ниже.

Согласно теории насыщения, представленной автором чуть ранее в статье \"How the Anti-SOPA Message Tricked So Many People So Quickly\" («Как акции против SOPA удалось так быстро завоевать приверженцев»), вероятность передачи узлом сообщения падает по мере роста числа «сконвертированных» узлов.

И уже эта вероятность наверняка знакома любому, читавшему статью \"Theorem of Search Engine Optimization\" («Теорема поисковой оптимизации»), где говорится ровно следующее: «Получение оптимальной производительности от поисковой системы уменьшает естественность результатов поиска», а также: «Естественность поисковых результатов падает по мере роста оптимизации». В нашем случае, частота передачи сообщения падает по мере насыщения им доступных реципиентов.

Закон постоянных пределов

В поисковой оптимизации всегда существовали пределы, которые сдерживали частоту трансформации для практически каждого действия в цикле SEO (исследование ключевых слов, производство контента, размещение ссылок, мониторинг, анализ). Эти пределы можно описать законом убывающей доходности, который гласит: «В любом производстве добавление нового фактора при сохранении величины других факторов в определённый момент приводит к понижению отдачи». Иными словами, в определённый момент:

увеличение охвата при исследовании ключевых слов даст менее ценную информацию;
увеличение создаваемого объёма контента приведёт к меньшим преимуществам по длинному хвосту;
размещение большего числа ссылок понизит их ценность;
увеличение отслеживаемых сигналов даст менее квалитативную информацию;
дальнейший анализ объекта исследования приведёт к ухудшению его понимания.
Тот же принцип верен и для передачи информации. В определённый момент люди перестанут передавать дальше ваше сообщение. В определённый момент оно дойдёт до последнего человека, который готовы его услышать. В определённый момент все вокруг вас окажутся на чьей-либо стороне.

У этих пределов могут быть конечные точки, которые можно вычислить или даже точно измерить, но эти точки могут и «уплывать» в бесконечность. В практическом плане мы знаем, что есть пределы, за которыми повтор действий перестаёт быть продуктивным. Этот же принцип верен и для передачи информации в радиальном поле, имеющем конечную силу. Таким образом вне зависимости от того, насколько хороши ваши связи, ваше сообщение всегда дойдёт менее чем до 100% аудитории.

Причина, по которой существует этот предел, состоит в том, что безразличие или оппозиция создают сопротивление в радиальном поле. Вы можете превзойти лишь часть безразличия или оппозиции.

Радиальная передача информации несовершенна и конечна

Таким образом можно сказать, что радиальная передача информации в создающую сопротивление среду является локализованной активностью. Она является локальной для вашего окружения, определяющегося вашими связями.

В отношении PageRank это означает, что ценность, которую ссылка передаёт следующей странице, теряется по мере передачи. Это значение можно представить себе как математическую величину вроде PageRank, которую вычисляет для всех страниц поисковая система, либо как индексирование сайтом робота, начавшееся с некоторой ссылки.

Когда поисковой робот обходит страницу за страницей, рано или поздно он доходит до точки, когда он прекращает следовать по ссылкам (либо ссылки заканчиваются). Обход страниц происходит радиально, от центральных страниц, с которых затем производится повторный обход. Эти центральные страницы и являются самыми трастовыми страницами с наивысшей ценностью.

В пределах одной сайта разумно предполагать наличие как минимум одной центральной страницы, которой, как правило, является домашняя страница сайта. С неё и начинается обход сайта поисковиком.

Радиус обхода страниц уменьшается по мере того как поисковик находит всё менее ценые страницы. Некоторые страницы в глазах поисковика могут вообще не иметь ценности несмотря на то, что на них указывают ссылки.

В качестве примера можно привести индексацию через виджет календаря в блоге, который генерирует огромное количество страниц. Несмотря на то, что этих страниц может быть действительно много, и они перелинкованы между собой, а также имеют большое количество обратных ссылок внутри сайта, поисковик не видит в них никакой ценности.

Поисковикам приходится решать эту проблему снова и снова, и поисковая оптимизация может либо помогать им, либо мешать. Когда навигационная структура сайта плоская, чем больше ссылок размещается на странице, тем сложнее поисковой системе определить центр, от которого производится поиск. В этом случае поисковик может не найти самые важные страницы сайта и не оценить их соответствующим образом. Когда это происходит, ваша «оптимизация» становится непредсказуемой. Вы не можете ожидать от поисковика нужной оценки страниц, если не говорите ему, какие страницы действительно подходят под определённый запрос.

Иными словами, распространение информации является масштабируемым процессом

Публикуя информацию в Сети, мы управляем не одним радиальным информационным полем, а многими полями. Чем больше ресурсов и каналов мы добавляем, тем большее количество радиальных полей приходится контролировать.

Именно поэтому у людей, которые управляют десятками, сотнями и тысячами сайтов так плохо получается делать свою работу. Вместо сильных центральных ресурсов они концентрируют внимание на большом количестве слабых.

Та же уступка происходит и в случае с приобретением обратных ссылок. Если вы фокусируете внимание на сильных, надёжных связях с ключевыми партнёрами, вы получаете меньше непосредственных ссылок, но зато эти ссылки имеют больший вес. С другой стороны, если вы концентрируете внимание на приобретении большого числа ссылок с максимальной скоростью, вы жертвуете качеством и ценностью ради чисел.

Закон убывающей доходности верен для обеих стратегий приобретения обратных ссылок. Но в то время как высококачественные ссылки могут работать на вас месяцами и годами, низкокачественные ссылки могут не помочь вовсе: их время жизни сравнительно мало. В некоторых случая массивы линк-спама заново создаются 2-4 раза в год, что даёт среднюю жизнь спамной ссылки в 30-180 дней.

Выводы

Вне зависимости от того, как именно вы занимаетесь поисковой оптимизацией, вы имеете дело с законом убывающей доходности. Больше того, всё, что вы делаете, происходит в пределах радиального поля, которое повышаете своё сопротивление по мере удаления информации от центра. И, наконец, единственным дифференцирующим фактором является эффективность, с которой вы реализуете избранные стратегии.

Иными словами, слишком много повторов одного и того же действия вредят вам, понижая эффективность вашей работы. Для по-настоящему эффективной оптимизации необходимо использовать различные стратегии, методы и инструменты. Вам необходимо увеличивать радиус поля, которое может передавать сообщение вовне. При этом сообщение должно доходить до новых сильных источников, которые могут повторить его с той же силой.

Материал основан на тексте статьи Radial Information Conveyance Methods and Limitations, опубликованной на сайте SEO Theory.

http://subscribe.ru/archive/inet.search.seo/201202...mp;uuid=gn3oSSLIYsYeQ5Hv1F2L3A

какие инструменты веб-аналитики и продвижения использовать начинающим SEO-компаниям

Пятница, 07 Октября 2011 г. 10:22 + в цитатник
Вопрос:

Здравствуйте, редакция!
Я руководитель небольшой веб-студии из провинциального города. Учитывая повышенный интерес к SEO, решил все самостоятельно изучить и уже начал продвигать сайты своих клиентов. Интересует такой вопрос: какие инструменты веб-аналитики и продвижения использовать начинающим SEO-компаниям? Желательно, чтобы они были бесплатными, т.к. в нашем городе небольшие бюджеты на продвижение. И как лучше продвигать сайты с небольшими бюджетами?

Например, сейчас я использую:
site-auditor - для общего анализа сайта.
siteposition.ru - для определения позиций сайта и отправки отчета клиентам.
rookee - для информации стоимости продвижения и собственно продвижения сайтов.

С уважением, Кайнара Олег

Ответ:

Для отслеживания посещаемости сайта можно использовать бесплатные счетчики, такие как: LiveInternet - http://www.liveinternet.ru/, Яндекс.Метрика - metrika.yandex.ru, Google Analytics - http://www.google.ru/analytics/. Этих трех инструментов вполне хватит для анализа посещаемости сайтов и, как следствие, для отслеживания эффективности продвижения.

Далее, для эффективного продвижения сайта в Яндексе просто необходимо регистрация сайта в сервисе Яндекс.Вебмастер (http://webmaster.yandex.ru/), который предоставляет ряд уникальных возможностей по управлению сайтом. Аналогично, для Google нужно использовать "Центр веб-мастеров Google" (http://www.google.com/webmasters/).

Также для анализа технического состояния сайта порой необходимы другие сервисы от Яндекса.
Проверка ответа сервера - http://webmaster.yandex.ru/server-response.xml,
Анализ robots.txt - http://webmaster.yandex.ru/robots.xml.

Для оценки ссылочного бюджета можно использовать систему Seopult - http://seopult.ru/ (помимо этого, в системе можно проводить еще ряд анализов сайта).

Много аналитических возможностей предоставляет сервис MegaIndex (http://www.megaindex.ru/). С его помощью можно проводить анализ стоимости продвижения, анализ текста страницы, выяснять историю позиций сайта.
Подробный анализ текста страницы возможен с помощью сервиса http://www.promolab.ru/free/parser.php.
Для управления ссылочными кампаниями (проверка индексации площадок и ссылок) интернет-маркетологи используют дополнительную панель инструментов Firefox - Вебмастер SAPE - https://addons.mozilla.org/ru/firefox/addon/webmaster-sape/.
Также из полезных аддонов можно отметить RDS Bar - плагин для быстрого анализа показателей сайта http://www.recipdonor.com/bar/. Возможно пригодятся аналитические сервисы http://webomer.ru/cgi-bin/wr.fcgi и http://netchart.ru/.

"И как лучше продвигать сайты с небольшими бюджетами?"

На данный вопрос сложно дать общий ответ. Попытайтесь руководствоваться следующими принципами:
1. Занимайтесь региональным продвижением - небольшие бюджеты, хорошая отдача;
2. Из всего многообразия выбирайте недорогие запросы, которые по прогнозам будут приносить трафик;
3. Стройте модель долгосрочных взаимоотношений с клиентом;
4. Считайте и оптимизируйте затраты на зарплату интернет-маркетологам. Порой эти затраты будут значительно превышать ссылочные бюджеты;
5. Как следствие - повышайте эффективность работы, активно обучайтесь, максимизируйте отдачу от использования seo- инструментов.

Дмитрий Рузанов, специалист по поисковой оптимизации компании "Ашманов и Партнеры"

http://subscribe.ru/archive/inet.search.seo/201110...mp;uuid=gn3oSSLIYsYeQ5Hv1F2L3A

Настройка robots.txt

Пятница, 16 Сентября 2011 г. 10:31 + в цитатник
Защита информации на вашем сайте – один из залогов успеха бизнеса в сети. Утечка данных с сайта, особенно личных данных пользователей, крайне негативно скажется на репутации компании. Поэтому при поисковом продвижении сайта нужно думать не только о том, какие страницы сайта должны попасть в ТОП поисковых систем, но и о том, какие не должны быть проиндексированы ни при каких обстоятельствах. Основной инструмент ограничения доступности информации для поисковых роботов – файл robots.txt.

Файл robots.txt чаще всего используется для запрета индексирования поисковыми роботами страниц:

с конфиденциальной информацией (интернет-магазины и любые сайты, хранящие личные данные пользователей);
перемещённых или удалённых (например, при изменении структуры сайта или появления нового зеркала для максимально быстрого обновления кэша поисковой системы);
дублей контента (блоги, интернет-магазины, сайты с использованием пейджинга и др.)

Отметим, что современные CMS имеют встроенные возможности запрета индексирования дублирующих страниц по виду URL, так что использовать для этого robots.txt вам вряд ли придётся.

Robots.txt также позволяет задавать поисковому роботу время загрузки страниц и другие технические характеристики вашего сайта, однако использование таких директив имеет свои особенности в каждой конкретной поисковой системе и в сущности не является приоритетной задачей файла robots.txt.

Что такое robots.txt

Текстовый файл robots.txt согласно общепринятому стандарту располагается «в корне» сайта и всегда открыт для чтения – в первую очередь, как следует из названия, роботам поисковых систем. Однако вы свободно можете открыть robots.txt любого сайта с помощью своего браузера. Посмотрим, например, файл сайа skype.com, просто дописав в адресной строке на главной странице «robots.txt» после слэша:

http://www.skype.com/robots.txt

– и нажав Enter:

User-agent: *
Disallow: /temp/
Disallow: /store/accessories/
Disallow: */downloading/
Disallow: /go/help.ticket.submit$

Sitemap: http://www.skype.com/sitemap.xml

На открывшейся странице мы видим настройки индексирования данного сайта для поисковых роботов. О синтаксисе и назначении директив мы подробно расскажем далее. Кстати, в отдельных случаях неправильное использование директив в robots.txt помогает сразу диагностировать имеющиеся проблемы с индексированием сайта.

Обратите внимание, что крупные сайты практически не используют в robots.txt никаких других директив, кроме Disallow, однозначно воспринимаемой поисковым роботом любой популярной системы.

Robots.txt: историческая справка

Стандарт для robots.txt никому не принадлежит, а начало его использования приходится на 1994 год. Сейчас robots.txt используется всеми популярными поисковыми системами. Файл robots.txt – это The Robots Exclusion Protocol, то есть файл исключений для поисковых роботов. Robots.txt противоположен по смыслу файлу sitemap.xml: robots.txt ограничивает поисковым роботам обход сайта, а sitemap.xml наоборот – указывает файлы для индексирования. При этом robots.txt первичен – прежде, чем поисковый робот начинает загружать какие-либо страницы сайта, он обращается именно к файлу robots.txt, поэтому основной директивой файла robots.txt является директива запрета индексирования – Disallow.

Основные базы знаний по использованию robots.txt – это сайт www.robotstxt.org (на английском языке) и robotstxt.org.ru.

Кто виноват?

Наличие файла robots.txt в структуре сайта не обязательно. Отсутствие явно заданного через robots.txt запрета воспринимается поисковым роботом как разрешение загружать любое доступное содержимое сайта. Если сайт ведёт работу с конфиденциальными данными, доступ к которым возможен без авторизации (так делать нельзя ни при каких обстоятельствах), SEO-специалистам и вебмастерам следует заранее позаботиться об ограничении попадания этой информации в открытый доступ: нужно составить список страниц сайта, которые ни в коем случае не должны попасть в индекс поисковых систем, и запретить индексирование этих страниц в файле robots.txt.

Не стоит обвинять поисковых роботов в том, что в индекс поисковых систем попадают, например, номера телефонов, адреса, паспортные данные или непубличные документы, как это было в скандалах с операторами сотовой связи, государственными учреждениями, интернет-магазинами и так далее: эта ситуация говорит как раз о хорошей работе поисковых роботов.

Важно понимать, что если на страницу с конфиденциальной информацией невозможно попасть одним или несколькими переходами с главной страницы сайта, это не значит, что страница «спрятана» от поискового робота: ссылка на страницу может быть кем-то размещена и на сторонних ресурсах – тогда страница с большой вероятностью окажется в индексе поисковой системы. Существуют также многочисленные причины попадания страниц в индекс, не связанные напрямую с человеческим фактором, то есть действующие автоматически: RSS-каналы, агрегаторы контента и другие (подробно эти причины были описаны на странице блога «Яндекс.Поиска»: «Почему всё находится»). Поэтому SEO-специалист должен всегда напрямую запрещать поисковой системе обходить страницы с «секретной» информацией, если эта проблема не была решена на этапе проектирования сайта.

Синтаксис в robots.txt

Обратимся теперь к оформлению файла robots.txt. В отличие от HTML-документов или XML-карт, в robots.txt содержатся непосредственно директивы для поисковых систем без каких-либо дополнительных блоков информации, описывающих назначение файла – оно вытекает просто из названия.

Как мы говорили выше, основная используемая в robots.txt директива – Disallow. Поскольку в интернете существует далеко не одна поисковая система, то в общем случае вебмастер может задать запреты для всех поисковых роботов согласно принятом синтаксису, указав в строке после User-agent: символ ‘*’. Таким образом, самый простой запрет – это запрет индексирования всего сайта любыми поисковыми роботами. Выглядит он так:

User-agent: * Disallow: /

Начиная со слеша можно указывать отдельные папки или файлы или маски для запрета индексирования, при этом часть файлов из этих папок можно открыть, выглядеть это будет так:

User-agent: Yandex
Allow: /cgi-bin
Disallow: /

– запрещает скачивать всё, кроме страниц, начинающихся с '/cgi-bin'.

Обратите внимание, что если для данной страницы сайта подходит несколько директив, то выбирается первая в порядке появления в выбранном User-agent блоке. Например, такая запись –

User-agent: Yandex
Disallow: /
Allow: /cgi-bin

– запрещает скачивать весь сайт

Спецсимволы в robots.txt

При указании путей директив Allow-Disallow можно использовать спецсимволы '*' и '$', задавая, определенные регулярные выражения. Символ ‘#’ отделяет комментарии к коду в файле robots.txt.

Спецсимвол '*' означает любую (в том числе пустую) последовательность символов. Примеры:

User-agent: Yandex
Disallow: /cgi-bin/*.aspx # запрещает '/cgi-bin/example.aspx' и '/cgi-bin/private/test.aspx'
Disallow: /*private # запрещает не только '/private', но и '/cgi-bin/private'

По умолчанию к концу каждого правила, описанного в robots.txt, приписывается '*', например:

User-agent: Yandex
Disallow: /cgi-bin* # блокирует доступ к страницам начинающимся с '/cgi-bin' Disallow: /cgi-bin # то же самое

Чтобы отменить '*' на конце правила, можно использовать спецсимвол '$', например:

User-agent: Yandex
Disallow: /example$ # запрещает '/example', но не запрещает '/example.html'

User-agent: Yandex
Disallow: /example # запрещает и '/example', и '/example.html'

User-agent: Yandex
Disallow: /example$ # запрещает только '/example'
Disallow: /example*$ # так же, как 'Disallow: /example' запрещает и /example.html и /example

Как видно из примеров, директивы можно сочетать друг с другом. Как правило, этого небольшого функционала достаточно для решения большинства вопросов с индексированием сайта, остальные директивы нуждаются в уточнении в рамках работы конкретной поисковой системы. Популярные поисковики предоставляют вебмастерам cправочную информацию по особенностям работы своих поисковых роботов – например, «Яндекс» и «Google».

Безопасность сайта и robots.txt

Поисковые роботы не могут добраться до страниц, доступ к которым возможен исключительно после авторизации, то есть с помощью обязательного ввода пароля. Это могут быть не только профили пользователей сайта, но и аккаунты администраторов. Таким образом, включать эти страницы в robots.txt не имеет смысла.

Будет разумно указать поисковым роботам не включать в индекс страницы с формой авторизации для пользователей сайта. Если же для администраторов сайта есть отдельная страница авторизации, на которую нельзя перейти с главной или внутренних страниц сайта, и эта страница имеет нестандартный вид URL, то сомнительно включать её в robots.txt под директивой Disallow. Помните о том, что опытный вебмастер всегда сможет обнаружить стандартную страницу авторизации для популярных CMS, а в индекс системы могут попасть страницы, ссылки на которых есть на уже проиндексированных страницах других сайтов.

Процитируем также страницы помощи Google о поисковом роботе Googlebot:

«Хотя Google не сканирует и не индексирует содержание страниц, заблокированных в файле robots.txt, URL-адреса, обнаруженные на других страницах в Интернете, по-прежнему могут добавляться в индекс. В результате URL страницы, а также другие общедоступные сведения, например текст ссылок на сайт или заголовок из каталога Open Directory Project, могут появиться в результатах поиска Google».

Таким образом, хотя в индекс поисковой системы может не попасть содержимое страниц, могут попасть их URL, что, в общем-то, не является гарантией того, что конфиденциальные данные не попадут в руки злоумшыленников.

SEO-специалист должен составить список страниц, которые совершенно точно не должны попасть в открытый доступ в интернете, однако поскольку список этих страниц будет находиться в открытом для всех файле robots.txt, злоумышленникам не придётся даже искать страницы с «той самой» секретной информацией, о чём прямо сказано на сайте robotstxt.org: «Файл robots.txt виден всем. Не пытайтесь использовать этот файл для того, чтобы спрятать информацию».

Кроме того, не все роботы соблюдают общепринятые стандарты для robots.txt. А также robots.txt может использоваться специально написанными программами, цель которых – поиск уязвимостей ваших веб-серверов.

Эти вещи всегда нужно иметь в виду, если вы заботитесь о безопасности данных на вашем сайте.

Использование robots.txt в мошеннических целях

Файл robots.txt можно использовать и с целью нанести ущерб сайту. Всегда будьте в курсе того, кто имеет доступ к вашему сайту. С помощью robots.txt можно добиться понижения позиций сайта вплоть до полного выпадения его из индекса. Приведём некоторые примеры таких манипуляций.

Директива Disallow может использоваться для запрета индексирования отдельных папок (разделов сайта). Обратите внимание на имена этих папок: кроме разделов со служебной информацией там могут оказаться и разделы с контентом.
Директива Crawl-delay отвечает за временной промежуток в секундах между последовательной загрузкой страниц сайта и используется при больших нагрузках на вебсервер. Увеличение временного промежутка может привести к тому, что поисковый робот будет индексировать сайт слишком долго.

Как мы говорили в самом начале нашей рассылки, такие манипуляции с robots.txt легко определить даже не вникая в структуру сайта – просто открыв файл robots.txt в браузере.

Noindex, nofollow

В связи с файлом robots.txt нельзя не упомянуть микроформаты noindex и nofollow.

Значение nofollow атрибута rel тега (запрет передачи веса по ссылке) входит в спецификацию HTML, и на данный момент соблюдается всеми популярными поисковыми системами.

Тег noindex был предложен компанией «Яндекс». Этот парный тег предназначен для запрета индексирования части содержимого на странице, например так:

...
Текст или код, который нужно исключить из индексации Яндекс
...

Текст или код, который нужно исключить из индексации Яндекс

Текст или код, который нужно исключить из индексации Яндекс

На данный момент тег noindex используется только Яндексом. Более того, поскольку тег noindex не входит в официальную спецификацию языка HTML, то большинство HTML-валидаторов считает его ошибкой. Потому для того, чтобы сделать код с noindex валидным рекомендуется использовать тот факт, что noindex не чувствителен к вложенности и это позволяет использовать следующую конструкцию:

Текст или код, который нужно исключить из индексации Яндекс

Возможно использование noindex в качестве мета-тега на конкретной странице (например, /page.html):






...

Приведённая выше запись аналогична следующей конструкции в robots.txt:

User-agent: Yandex
Disallow: /page.html

Что делать, если конфиденциальные данные с вашего сайта попали в открытый доступ

К сожалению, бывают неприятные ситуации, когда не все страницы с конфиденциальными данными были закрыты от индексации. Рано или поздно такие страницы попадают в сеть и распространяются по интернету, вызывая многочисленные скандалы, шумиху и нередко – судебные иски. Вебмастерам в этом случае следует придерживаться следующего порядка действий:

Определите список страниц, которые необходимо закрыть от индексации. Выясните причину их попадания в открытый доступ: если эти страницы должны быть доступны только через форму авторизации, примите соответствующие меры в модулях вашей CMS.
Добавьте список страниц в файл robots.txt с помощью директивы Disallow для всех поисковых роботов. Помните, что если информация появилась в индексе одной поисковой системе, то в течение короткого времени она появится в индексе как минимум всех популярных поисковых систем, а также может быть сохранена пользователями интернета.
Обратитесь напрямую в поисковые системы для скорейшего удаления страниц из индекса, соответствующие формы есть у «Яндекса» и у «Google».
Узнайте, была ли скопирована конфиденциальная информация с вашего сайта и выложена на сторонних ресурсах. Если это произошло, обратитесь к владельцам сайтов (модераторам) с просьбой об удалении контента. Вы также можете обратиться в техподдержку поисковых систем.

К сожалению, ответственность за распространение конфиденциальных данных лежит в первую очередь на плечах владельца сайта – источника утечки.

Выводы

Итак, сделаем некоторые основополагающие выводы об использовании файла robots.txt.

Robots.txt нельзя использовать с целью скрыть какую-либо информацию: указывая страницы, которые следует игнорировать поисковым машинам, вы в любом случае сами сообщаете место, где на вашем сайте могут содержаться конфиденциальные данные.
Не все поисковые роботы (не считая программ злоумышленников) соблюдают общепринятые стандарты, некоторые роботы имеют свои особенности. Занимаясь поисковой оптимизацией, SEO-специалист должен в первую очередь ориентироваться на все те поисковые системы, с которых на сайт приходит существенное количество трафика.
Проектируйте свой сайт таким образом, чтобы свести использование robots.txt (и в особенности директивы Disallow) к минимуму. О безопасности информации следует подумать на самых ранних этапах создания сайта, чтобы впоследствии не пришлось «латать дыры».
Если вы столкнулись с проблемой утечки данных со своего сайта в открытый доступ, немедленно запретите поисковым системам индексацию страниц с конфиденциальной информацией, а затем обратитесь в поисковую систему, чтобы максимально быстро исключить страницы из поиска.
Размещайте ваши сайты на хорошем хостинге и не перегружайте страницы информацией, чтобы не пришлось указывать поисковым роботам технические указания о времени обхода страниц.

Заметим, что механизмы поисковых систем стремятся к такой организации, чтобы создать сайт было максимально просто, а вебмастерам не приходилось изучать особенности работы поисковых роботов. Тем не менее, на данный момент знать основы использования robots.txt принципиально важно при продвижении в первую очередь интернет-магазинов и других сайтов, содержащих конфиденциальную информацию, а также при смене структуры сайта или переезде сайта на новый домен.

http://subscribe.ru/archive/inet.search.weboptimiz...mp;uuid=MayT16ZkgkxYfVI5Ipdlrg

WP - 3 Настройка ЧПУ (человеко-понятных урлов)

Четверг, 16 Июня 2011 г. 12:10 + в цитатник
Настройка ЧПУ (человеко-понятных урлов)

Эта настройку нужно делать в самом начале после создания блога, если для Вас что-то не понятно, просто делайте так, как показано на картинках и так, как я объясняю, со временем сами поймете. Настройка ЧПУ заключается в том, чтобы адрес Вашей статьи выглядел так, чтобы человек мог понять, а по умолчанию в WordPress ссылки выглядят так: http://localhost/web/?p=1 (это адрес тестовой заметки «Привет мир», которая уже есть у Вас). Это не очень удобно.

Давайте же настроем эти ЧПУ. Для этого зайдем «Настройки» --> «Постоянные ссылки (ЧПУ)»:

настройка wordpress

Там отмечаем «Произвольная структура» и туда вписываем код
/%postname%

Затем обязательно нажимаем «Сохранить изменения». Теперь у Вас в верхней части должно выйти сообщение «Структура постоянный ссылок обновлена». На всякий случай показал на картинке ниже:

Чтобы ЧПУ работали необходимо иметь следующие настройки:

В .htaccess должна быть следующая секция:

# BEGIN WordPress

RewriteEngine On
RewriteBase /
RewriteCond %{REQUEST_FILENAME} !-f
RewriteCond %{REQUEST_FILENAME} !-d
RewriteRule . /index.php [L]

# END WordPress

В httpd.config

Директива AllowOverride должна быть установлена в All


Options FollowSymLinks
AllowOverride All


и

var/www/html>
# ... other directives...
AllowOverride All


а также раскомментирована строчка

LoadModule rewrite_module modules/mod_rewrite.so

Проблемы настройки ЧПУ описаны:
http://codex.wordpress.org/Using_Permalinks

Drupal - 5 Настройка extension

Среда, 15 Июня 2011 г. 17:44 + в цитатник
в php.ini раскомментировать:

extension=php_gd2.dll
extension=php_mysql.dll
extension=php_mysqli.dll
extension=php_pdo_mysql.dll

и указать путь к расширениям extension_dir, например:

extension_dir = "d:/php5/ext"

Apache - 1 настройка php

Среда, 15 Июня 2011 г. 17:39 + в цитатник
В DirectoryIndex обязательно добавить index.php, чтобы отображалась админка и страницы сайта. Т.е. настройка должна выглядеть примерно так:

DirectoryIndex index.html index.php

WP - 2 Настройка блога на WordPress после установки

Среда, 15 Июня 2011 г. 16:23 + в цитатник
Итак, Вы прошли Урок 5 Установка WordPress. Теперь Вам нужно выполнить основные настройки WordPress, которые необходимо сделать сразу после установки Вордпресс.

Запускаем Денвер (как это делать рассказано в предыдущих уроках, или можете кликнуть по ссылке и откроется первый урок, там объясняется как запустить Денвер (Denwer)). Далее в браузере набираем localhost/web/wp-admin (если Вы в начальных уроках назвали свой блог не «web», то вместо него название того сайта, которое Вы указали при установке WordPress)

Для удобства и компактности рабочего рекомендую Вам сделать следующее: слева нажать на «Панель объявлений», и в правой части «Настройка экрана»:

wordpress: настройка после установки

Далее вылезет окошко, и там убираете галочки, которые Вам не нужны. Лично я оставляю только "Текущее состояние блога" и «Последние комментарии»:

настройка вордпресс после установки

Потом снова нажимаем «Настройка экрана», чтобы скрыть это окошечко.
Настройка ЧПУ (человеко-понятных урлов)

Эта настройку нужно делать в самом начале после создания блога, если для Вас что-то не понятно, просто делайте так, как показано на картинках и так, как я объясняю, со временем сами поймете. Настройка ЧПУ заключается в том, чтобы адрес Вашей статьи выглядел так, чтобы человек мог понять, а по умолчанию в WordPress ссылки выглядят так: http://localhost/web/?p=1 (это адрес тестовой заметки «Привет мир», которая уже есть у Вас). Это не очень удобно.

Давайте же настроем эти ЧПУ. Для этого зайдем «Настройки» --> «Постоянные ссылки (ЧПУ)»:

настройка wordpress

Там отмечаем «Произвольная структура» и туда вписываем код
/%postname%

Затем обязательно нажимаем «Сохранить изменения». Теперь у Вас в верхней части должно выйти сообщение «Структура постоянный ссылок обновлена». На всякий случай показал на картинке ниже:

настройка wordpress после установки
Активация плагина RusToLat.

Теперь нужно обязательно активировать плагин RusToLat (о плагинах речь пойдет позже, пока не заморачивайтесь что это такое). Для этого нужно перейти «Плагины» --> «Установленные»:

настройка вордпресс

Теперь в списке плагинов находим плагин RusToLat и нажимаем «Активировать»

wordpress, nastroyka5

После этого в верхней части экрана у Вас должна появиться надпись «Плагин активирован».

Теперь на своем блоге можете открыть заметку «Привет мир» и его адрес будет выглядеть так http://localhost/web/privet-mir.html. Согласитесь, намного красивей и понятней.

http://wpnew.ru/sozdanie-bloga/ustanovka-bloga-na-...wordpress-posle-ustanovki.html

WordPress 1 как зайти в админку

Среда, 15 Июня 2011 г. 15:57 + в цитатник

MySql 1 Удаление программы MySqlServer

Четверг, 09 Июня 2011 г. 11:21 + в цитатник
После удаления через Панель управления нужно также удалить папку C:\Program Files\MySQL\MySQL Server 5.5 (она удаляется не полностью) и удалить содержимое папки C:\Documents and Settings\All Users\Application Data\MySQL\MySQL Server 5.5\data

Уникальность контента: шинглы и честность

Вторник, 07 Июня 2011 г. 09:52 + в цитатник
В прошлых выпусках рассылки мы уже обсуждали контент: и с точки зрения защиты от копирования, и с точки зрения создания с нуля. Если говорить о продвигаемых сайтах, то альтернатив полностью оригинальному контенту нет – что, кстати, не исключает рерайта. Например, если речь идет о продаже товаров не собственного производства, то даже добросовестный копирайтер при создании описаний для сайта будет пользоваться информацией из официального каталога производителя. Поэтому рерайт бывает «белым», и далеко не всегда полностью оригинальное описание iPad 2, порожденное исключительно воспаленным воображением автора, ни разу не державшего его в руках, будет лучше качественного, глубокого рерайта информации с сайта Apple. Скажем прямо, он будет хуже – «водянистее» и глупее. Итак, оригинальный контент не всегда выдумывается из головы. Тем не менее, он должен быть модифицирован с точки зрения формы настолько, чтобы поисковики посчитали его уникальным.

Сформулируем все это более кратко:

Для успешного продвижения сайта весь открытый для индексации контент должен быть уникальным с точки зрения поисковых систем;
На сайтах, обязанных обеспечить конверсию посетителей в покупателей, контент может быть либо полностью авторским, либо максимально глубоким и качественным рерайтом.
На качественных сайтах, продающих ссылки, контент должен быть уникальным, но уникализация может проводиться более грубо – чтобы обеспечить создание большого объема текстов за минимальные деньги.

Создание продающих текстов – тема для отдельной статьи (или даже книги), а с точки зрения уникализации и рерайта все упирается в алгоритмы поисковых систем. Как они распознают заимствования? Какие алгоритмы и модели используют? Знание ответов на эти вопросы поможет сэкономить немало сил и средств всем, кто занимается наполнением сайтов. Ведь, как известно, поднять движок и немного «допилить» шаблон дизайна – дело одного-трех дней, а вот наполнить 500-2500 страниц уникальным контентом – не такая уж тривиальная задача.

Постановка задачи: поиск дубликатов

На первый взгляд, все просто: поисковик индексирует все документы в интернете. Почему бы не сравнить все эти страницы, чтобы выявить дубли? Но даже для сравнения каждого документа в индексе «Яндекса» с каждым другим, нужно возвести в квадрат число 10 727 736 489 – это будет необходимым числом операций. Причем понятно, что полнотекстовое сравнение не даст правильных результатов – достаточно заменить несколько слов, букв и знаков препинания, взять фрагмент, переставить местами предложения и так далее, чтобы сравнение «лоб в лоб» показало отсутствие совпадения. Если же сравнивать небольшие кусочки текста (например, разбить каждый документ на цепочки по 3-6 слов), то количество потребных операций возрастет на множество порядков. Таких компьютеров просто не существует, и даже прогресс в создании суперкластеров не даст такой производительности. Тупик? Как бы не так! Сочетанием математических и лингвистических методов задача сравнения огромного количества документов была в значительной степени решена. Это все еще ресурсоемкая процедура, однако она под силу существующим компьютерам. Снижение количества операций стало возможным благодаря алгоритмам шинглов (см. статью Syntactic clustering of the Web за авторством A. Broder, S. Glassman, M. Manasse and G. Zweig, опубликованную в сборнике трудов 6-й международной конференции World Wide Web в апреле 1997 года).

Шинглы

Shingle переводится как «гонт», а гонт – это кровельный материал: дощечки с пазами и выступами для соединения в единый лист. Это алгоритм для поиска дубликатов путем вычисления и сопоставления контрольных сумм выборки канонизированных словосочетаний длиной от 3 до 10 (приблизительно) единиц. Как это работает? Довольно просто:

Текст «канонизируется», то есть приводится к исходным словоформам с выбросом стоп-слов (предлогов, союзов, частиц, знаков препинания и так далее). Например, «мой дядя самых честных правил, когда не в шутку занемог» после канонизации приобретет вид такого типа: «дядя самый честный правило шутка занемочь». Теоретически, может применяться и более жесткая канонизация, когда каждое слово приводится к самому частотному синониму – тогда после обработки исходник для вычисления шингла станет таким: «дядя самый честный правило болеть». Это стало бы мощным способом борьбы с синонимайзерами и ручным рерайтом для разрушения шинглов, которые не меняют порядок слов в текстах, а только заменяют их синонимами.

Канонизированный текст разбивается на фразы длиной от 3 до примерно 10 (ближе к 10) слов. Разбивка текста документа может идти как стык в стык – «дядя самый честный», «правило болеть уважать»; так и внахлест – «дядя самый честный», «самый честный правило», «честный правило болеть» (возможен различный шаг сдвига). Очевидно, что любое изменение канонизированного текста, особенно если оно случится в начале, приведет к появлению других шинглов. Следовательно, необходимо установить в тексте неочевидные «точки отсчета» для разбивки на шинглы: например, как пишет «Яндекс» в презентации схожего алгоритма «Спамообороны», «от буквы „ю“ до буквы „ю“; или от двухбуквия, сумма численных значений символов (букв) которого кратна 50, до следующего такого же». При этом, особенно для разбивки внахлест, текст может содержать много повреждений (попыток уникализации), но разрушены будут не все шинглы, а только непосредственно затронутые повреждениями.

Для каждого шингла вычисляется контрольная сумма. Применяемый метод не столь важен – это может быть любая хэш-функция: например, CRC (cyclic redundancy code) или другой. Главное – последовательности слов превращаются в последовательности цифр, с которыми компьютеру работать гораздо проще.

Создается выборка контрольных сумм шинглов (уже в виде контрольных сумм) – понятно, что сравнение документов по всем шинглам является на порядки более ресурсоемкой (и ненужной) задачей, чем сравнение по нескольким десяткам отобранных значений контрольных сумм. Принцип формирования выборки может быть примерно таким: из заранее созданного списка случайным образом берется 85 математических функций, каждая из которых может описывать интересный для целей data mining параметр: пересечение, вложенность и так далее. Все шинглы документа «пропускаются» через каждое из 85 выражений, что дает на выходе значения, и они присваиваются соответствующему шинглу. Для каждой из 85 функций выбирается шингл с минимальным значением контрольной суммы (просто потому, что нужно выбрать какой-то – можно было бы с таким же успехом брать шингл с максимальным значением). В итоге анализируемый документ получает сигнатуру из 85 значений контрольных сумм. При сравнении с другим документом, над которым была проделана такая же операция, берутся шинглы, отобранные по совпадающим функциям – например, если при отборе шинглов было использовано 27 одинаковых функций из 85, то сравнение идет по 27 этим контрольным суммам.

Если сравнительный анализ показывает высокий уровень совпадения контрольных сумм, документы с очень большой вероятностью являются четкими (без изменений) или нечеткими (с небольшими изменениями) дубликатами.

Следует учесть, что поисковые системы работают не на сто процентов именно так – реализация алгоритма сложнее, последовательность действий может отличаться, но в целом принцип должен стать ясен.

Добить танцем

Шинглы – далеко не единственный метод проверки контента на уникальность и естественность: применяются статистический анализ частотности слов с использованием распределения Ципфа для поиска аномалий, наложение рамок длинных пассажей (абзацеподобных последовательностей слов, длинных шинглов) для поиска совпадений в документах, прошедших ручную обработку-рерайт с разрушением шинглов и другие алгоритмы. В целом задача распознавания дублей текстового контента поисковиками решена – только очень глубокий рерайт, а фактически – создание оригинального контента с такой же информацией, позволяет свести к нулю вероятность санкций при ранжировании. Тем не менее, понимание принципов определения дубликатов позволяет копирайтерам экономить значительные усилия при создании контента для качественных сайтов-доноров.

P.S. Тем, кого заинтересовала математика этой области работы поисковых систем, рекомендуем обратиться к статье специалистов «Яндекса» Ильи Сегаловича и Юрия Зеленкова «Сравнительный анализ методов определения нечетких дубликатов для веб-документов».

http://subscribe.ru/archive/inet.search.weboptimiz...ru&uuid=MayT16ZkgkxYfVI5Ipdlrg

Контекстные войны: как защититься от конкурентов

Среда, 11 Мая 2011 г. 13:54 + в цитатник
Контекстная реклама – это программная система с определенными правилами игры. Если хорошо в них разобраться, то можно найти «дыры» – способы нечестной конкурентной борьбы. Хотя подавляющее большинство рекламодателей работает без применения грязных приемов, случиться может всякое. Системы контекстной рекламы борются с ними достаточно успешно (например, защита от кликфрода делает скликивание трудоемкой операцией, см. ниже), но никому не помешает узнать, какие танцы с шаманским бубном могут использовать конкуренты, чтобы похитить ваших женщин и драгоценные металлы уменьшить эффективность вашей рекламной кампании.


Скликивание (кликфрод)

Конкуренты просматривают поисковую выдачу, поэтому увидят ваши объявления – так же, как вы видите их рекламу. Конечно, они будут кликать по ним, ведь они знают, что вы за это заплатите. Если бы в системах контекстной рекламы не было защиты от скликивания, конкуренты только тем и занимались бы, что поедали бюджеты друг друга – вручную или с помощью специальных программ. Однако проблема слишком серьезна, чтобы ее игнорировать, поэтому поисковые системы внедрили мощную оборону: повторный клик с одного компьютера (определяется по IP и более чем двадцати другим признакам) не засчитывается в течение долгого времени. Также есть возможность блокирования IP-адресов: злостных кликателей можно забанить. Тем не менее, при подозрении на скликивание (аномалии – например, большое количество переходов, не дающих никакой конверсии, с огромным показателем отказов), необходимо сразу же писать в службу поддержки «Яндекс.Директа».


Подсидка

«Яндекс.Директ» – аукционная система, поэтому реальная цена клика сильно зависит от ставок (назначенных конкурентами максимальных цен клика). Устанавливая максимально приемлемую цену клика (ставку) на 1 цент меньше, чем у конкурента, можно заставить систему поднять для него реальную цену клика до максимума – если тот подключил (точнее, не отключил) популярную опцию «Автоброкер». Звучит сложновато, но если рассмотреть пример, все станет понятно:
Вы установили максимальную цену клика равной 5 долларам, при этом реальная цена клика для вас – 1,01 доллара.
Конкурент установил максимальную цену клика равной 1 доллару. Цена клика для него – 1 доллар и менее.
Но конкурент может установить максимальную цену клика равной 4,99 доллара – и тогда реальная цена клика для вас станет равной 5 долларам, а для него останется прежней! Это и есть подсидка – конкурент без потерь может заставить вас платить намного больше.

Не стоит делать максимальную ставку высокой – очень велик риск, что именно такую цену за клик вам и придется платить!




Если не хотите платить 5 долларов за клик, не выбирайте максимальную ставку равной 5 долларам. Поставьте 1.20, чтобы перебить конкурента, но не становитесь мишенью для подсидки!

Как это работает?

Реальная стоимость клика рассчитывается по следующей формуле: Рн / Пк + Ш

Т.е., Рейтинг «нижнего» объявления (со следующей после вашей максимальной ставкой) / Показатель качества объявления (также внутренний параметр, рассчитывается, в основном, от CTR) + Шаг торгов (обычно 1 цент).

Рейтинг определяет позицию объявления. Он представляет собой произведение максимальной ставки и показателя качества. Если показатель качества у всех конкурирующих объявлений одинаковый, то позиция будет зависеть, очевидно, от ставки. Повысив ставку, ваш конкурент «снизу» повышает вам стоимость клика (если у вас включен автоброкер). И если его никто не поджимает таким же образом, он остается при своей низкой стоимости клика.

Как бороться с подсидкой?

Чтобы не терять деньги, нужно как можно быстрее опустить ставку до минимального уровня, при котором объявление еще будет показываться. Ваш конкурент окажется сверху, в уязвимой для подсидки позиции.

Больше всего от подсидок страдают рекламодатели, желающие всегда оставаться на лучших местах (первая позиция спецразмещения, первая позиция гарантированных показов).


Манипуляции с CTR

Показатель качества определяет и стоимость клика, и позицию объявления. А зависит он от CTR (click-through rate, отношения количества кликов по объявлению к количеству показов). Причина такого внимания к CTR – в самом механизме работы системы контекстной рекламы: ей выгоднее показывать «популярные» объявления с высокой кликабельностью, пусть и по небольшой цене, чем дешевые или даже дорогие объявления с низкой кликабельностью. Поэтому кликабельные объявления автоматически идут наверх в позициях показа, стоимость клика уменьшается – все для поощрения рекламодателя. Понятно, что если понизить CTR конкурентов, можно получить большое преимущество. Это делается двумя методами:
Скрутка CTR. Свои объявления мошенник отключает, а потом начинает вручную или с помощью специального софта задавать поисковой системе запросы, по которым крутится реклама конкурентов (и его собственная). Поскольку кликов не происходит, система контекстной рекламы не может применить антифрод.


Накрутка CTR. Обратная ситуация: мошенник накручивает CTR своих объявлений, кликая по ним. Тут ему приходится и бороться с антифродом, и платить деньги за клики. Поэтому такая стратегия используется редко.
Это нечестные методы повышения CTR, но любые другие использовать не только можно, но и необходимо. К ним относятся, в первую очередь, точный таргетинг и длинный, исключающий все нецелевые запросы список минус-слов.


Фальшивые объявления

В «Яндекс.Директе» нет механизма подтверждения владения целевым доменом (сайтом, на который указывают объявления), но есть возможность вести сколько угодно рекламных кампаний для одного сайта, причем под разными логинами. Нечистоплотные конкуренты могут легко завести фальшивую рекламную кампанию, показывая ваш домен и название вашей компании с внушающими потребителям ужас объявлениями типа «Кредит всего за 73% годовых» и так далее. Нужно обязательно отслеживать такие попытки дискредитации бренда и сообщать о них в службу поддержки «Яндекс.Директа».


Атака на сайт

DDoS-атака на сайт приводит к тому, что он перестает реагировать на запросы живых посетителей. Поддерживать ее постоянно очень накладно, но если в вашей нише ярко выраженный сезонный спрос, конкуренту может быть выгодно «положить» чужие сайты, чтобы клиенты без альтернативы зашли именно на его ресурс. Но защититься от DDoS можно, и мы расскажем об этом в одном из следующих выпусков рассылки.


Выводы

Система контекстной рекламы соблюдает баланс между интересами рекламодателей и собственными, поэтому полагаться на встроенные сервисы типа «Автоброкера» не стоит. Для эффективного и безопасного привлечения посетителей на сайт лучше воспользоваться модулем-надстройкой, который собирает все данные по рекламной кампании, пресекает мошенничество и в целом грамотно управляет параметрами целиком в интересах рекламодателя.

http://subscribe.ru/archive/inet.search.weboptimiz...mp;uuid=MayT16ZkgkxYfVI5Ipdlrg

Язык поисковых запросов «Яндекса»

Четверг, 05 Мая 2011 г. 10:47 + в цитатник
Язык поисковых запросов «Яндекса»

Среднестатистический пользователь поисковой системы не знает о существовании языка поисковых запросов, и даже в «Расширенный поиск» заходит крайне редко – особенно после того, как ссылку на него «Яндекс» стал выводить только на странице выдачи результатов. Единственный более или менее известный оператор языка запросов – кавычки: многие знают, что с их помощью можно найти точную цитату. Но если вы занимаетесь продвижением сайта, контекстной рекламой или поисковым маркетингом в целом (или просто хотите научиться максимально эффективному поиску), разобраться в операторах языка запросов необходимо.

Сразу разграничим два типа языка запросов:
для поиска – применяется в обычной поисковой строке для более эффективного поиска, анализа выдачи поисковой системы и так далее.


для подбора поисковых запросов (ключевых слов) в контекстной рекламе — применяется в поисковой строке сервиса «Подбор запросов» для определения частотности тех или иных форм с минус-словами и возможностью задать геотаргетинг. Стоит отметить, что SEO-подборщик SeoPult работает по-другому, предлагая варианты слов, смежных с добавленными вручную. Дело в том, что вывод по запросу «аватар» в ТОП10 естественной выдачи не гарантирует (хотя и способствует тому), что по запросу «аватар blu-ray» сайт тоже будет в ТОП10 — необходимо закупать ссылки с соответствующими анкорами под каждое продвигаемое ключевое слово.

Немного о морфологии

В русском языке слова склонны очень сильно видоизменяться. Классический пример: прошедшее время, несовершенный вид, третье лицо единственного числа глагола «идти» – «шёл». Ни одной общей буквы! Однако поисковые системы умеют проводить морфологический поиск и легко распознают изначальную форму слова. Но то, что хорошо для пользователей, иногда мешает тем, кто занимается поисковым маркетингом. Например, вполне возможна такая ситуация: продающим является запрос «закодироваться от алкоголизма», а «кодирования от алкоголизма» выражает информационный интерес. Если не пользоваться операторами поиска, ограничивающими морфологию, можно переплатить за контекстную рекламу, потратив деньги на привлечение нецелевых или еще не готовых сделать покупку посетителей. А в SEO, кстати, эта проблема стоит менее остро, потому что морфология работает в обе стороны.

Язык запросов для поиска

Полный и актуальный список рабочих операторов приведен в соответствующем разделе хелпа «Яндекса». Ниже мы рассмотрим их подробнее. Кстати, в одном поисковом запросе можно комбинировать различные элементы синтаксиса.
«К нам на утренний рассол» – слова идут подряд в точной форме. Обратите внимание, что ищется точное совпадение, причем считается даже регистр: «К нам на утренний рассол» и «к нам на утренний рассол» – разные запросы. Но если запрос отличается только регистром букв, результаты будут найдены. Если же задать запросы типа «к нам на рассол» (пропуск слова) или «к нам на утренние рассолы» (изменение морфологии), результатов не будет, потому что кавычки подразумевают ТОЧНОЕ совпадение запроса с последовательностью и формой слов в документе.

Кавычки помогают найти документ, если вы точно знаете, какая фраза в нем должна быть. Это позволяет не копаться в сотнях и тысячах «похожих» результатов, а быстро перейти к искомому. Также кавычки помогают без использования специальных сервисов проверить, нет ли в индексе поисковика вашего контента: выделите какую-нибудь фразу из 6-7 слов, заключите в кавычки и поищите. Если найдутся совпадения, то кто-то позаимствовал ваш текст.


«Прибыл * посол» – пропущено слово в цитате. Полезно, если вы забыли одно слово из цитаты… Или считаете, что конкуренты могли украсть текст и заменить название вашей фирмы на свое.


полгорбушки & мосол – слова в пределах одного предложения. Можно и не ставить амперсанд – «Яндекс» поймет, что запрос «полгорбушки мосол» (без кавычек!) соответствует фразе «полгорбушки да мосол», то есть и так будет искать в пределах предложения. Тем более, что амперсанд учитывается не как оператор, но и как символ, что может помешать поиску. Лучше всего этот метод работает для длинных предложений, искомые слова в которых разнесены достаточно далеко. Если слова близко, как в примере, амперсанд можно не вводить.


снаряжайся && добудь – двойной амперсанд позволяет найти слова в пределах одного документа (а не предложения, как одинарный).


глухаря | куропатку | кого-нибудь – поиск любого слова из перечисленных. В кавычках не работает, то есть запрос типа «утка жареная | утка тушеная» ничего не найдет. Вертикальная черта разделяет два запроса, то есть запрос типа «утка жареная | тушеная» (без кавычек!) – это поиск одновременно по словам «утка жареная» и «тушеная», но не «утка тушеная». Запросы такого типа – хороший способ выяснить, какие слова являются более конкурентными, какие сайты ПС считает более авторитетными и так далее.


не смогешь << винить – неранжирующее «и». Выражение после оператора не влияет на позицию документа в выдаче. «Яндекс» покажет документы, в которых есть слова, которые стоят и справа, и слева от оператора, но слово справа не будет принимать участие в ранжировании: то есть поисковик выводит и ранжирует результаты по запросу «не смогешь» из базы документов, содержащих «не смогешь» и «винить».


я должон /2 казнить – расстояние в пределах двух слов в любую сторону (то есть между заданными словами может встречаться одно слово). Если стоит цифра 2, то оператор аналогичен * (любое слово), а если 3 и более – приобретает собственную функциональность.


государственное дело && /3 улавливаешь нить – расстояние в 3 предложения в любую сторону. Полезно, когда нужно ограничить


нешто я ~~ пойму – исключение слова «пойму» из поиска. Очень полезно, если вы хотите найти, например, информацию про кротов, но не интересуетесь вездесущей песенкой «Кроты-хомяки». Достаточно просто задать запрос типа «кроты ~~ хомяки» (без кавычек!), и «Яндекс» скроет все документы со словом «хомяки».


чай ~ лаптем – полезный запрос, который позволяет найти предложение (а не документ, как оператор ~~) в котором есть слово, расположенное слева от тильды (чай), но нет слова, которое поставлено справа (лаптем).


при моем /+2 уму – расстояние в пределах двух слов в прямом порядке. щи /(-1 +2) хлебаю – расстояние от одного слова в обратном порядке до двух слов в прямом. Специфические операторы, которые применяются, в основном, для анализа алгоритмов поисковых систем.


!Соображаю !что !чему – оператор применяется очень часто. Восклицательный знак «фиксирует» форму – поиск будет производится по документам, где слово присутствует именно в такой форме.


получается && (+на | !мне) – с помощью скобок можно создать сложный запрос с группировкой операторов. Применяется для анализа алгоритмов или на соревнованиях по спортивному поиску.


title:(в стране) – поиск по заголовкам документов. Полезно, если нужно найти, например, дублирующиеся тайтлы (в пределах одного сайта или в интернете в целом).


url:ptici.narod.ru/ptici/kuropatka.htm – поиск по полному URL.


беспременно inurl:vojne – поиск слова в документах, URL которых содержит какое-либо слово.


host:lib.ru – поиск по хосту. rhost:ru.lib.* – поиск по хосту в обратной записи. Специфические запросы, применяются для анализа алгоритмов.


site:http://www.lib.ru/PXESY/FILATOW – поиск по всем поддоменам, разделам и страницам заданного сайта. Запрос применяется для анализа внутренних факторов оптимизации.


mime:pdf – оператор позволяет ограничить поиск каким-либо одним типом файлов.


lang:en – поиск с ограничением по языку. Если нужны результаты, например, только из русскоязычных документов, можно задать ограничение ru.


domain:ru – ограничение по зоне домена.


date:200712* – очень важный для специалистов оператор, поиск документов с ограничением по дате (то есть «не старее, чем…»). Также полезно, если вы хотите найти свежие документы с каким-либо запросом: например, новые статьи про бесшумные ноутбуки – если вы хотите такой ноутбук, зачем вам статьи про модели 2006 года?..


date:20071215..20080101, date:>20091231 – поиск с ограничением по интервалу дат. И предыдущий, и этот оператор удобно задавать через расширенный поиск (если, конечно, речь идет об обращении к поисковой системе вручную).

Язык запросов для подбора ключевых слов под контекстную рекламу

«Яндекс» и Система SeoPult подбирают слова и прогнозируют количество показов с учетом словоформ и дополнительных слов. Например, контекстная реклама по слову «аватар» (без кавычек) будет показываться и в ответ на запросы «скачать фильм аватар торрент», «сделать аватарку для форума», «аватар расписание сеансов». Если вам нужно продать Blu-ray с фильмом, то эти запросы не годятся, их нужно исключить. Как? Воспользоваться перечисленными ниже операторами. На первый взгляд они сложноваты, но если внимательно прочитать описание и разобрать примеры, все станет понятно.
Оператор «-» (минус-слова). Минус ставится вплотную к исключаемому слову, без пробела, а перед минус-словом ставится пробел. Все просто: если задать запрос «аватар -торрент», объявление будет показываться по всем запросам, включающим слово «аватар» – кроме тех, в которых есть слово «торрент». Если не хотите показывать объявление в ответ на запросы со словами «торрент» и «скачать», нужно указать: «аватар -торрент -скачать».


Операторы «()» (группировка) и «|» («или»). Попробуйте ключевое слово такого типа: «аватар (blu-ray| диск) -торрент -скачать». Это позволит сократить количество запросов в проекте, потому что объявление будет показываться и по «аватар blu-ray -торрент -скачать», и по «аватар диск -торрент -скачать».


Оператор «» (кавычки). Позволяет ограничить показы только данным словом и его формами. Например, при запросе «аватар» будут учтены показы по словам «аватара», «аватару», но не по словосочетанию «аватар Blu-ray».


Оператор «+». Иногда нужно учитывать предлоги или союзы, которые обычно игнорируются. Например, запрос «аватар на blu-ray» обычно аналогичен запросу «аватар blu-ray». Но поскольку с помощью последнего запроса могут искать и рип Blu-ray для скачивания, предлог поможет выделить целевую аудиторию, поэтому стоит использовать запрос: «аватар +на blu-ray».


Оператор «!». Очень полезный оператор для жесткого определения формы слова. Например, очень хорошо задать запрос в такой форме: «аватар -!аватары -!аватарки» – так вы отсечете всех, кто ищет не фильм, а картинки-аватарки для профилей.

http://subscribe.ru/archive/inet.search.weboptimiz...mp;uuid=MayT16ZkgkxYfVI5Ipdlrg

Как я отбираю доноров для покупки вечных ссылок

Понедельник, 28 Марта 2011 г. 10:08 + в цитатник
Продолжая отвечать на вопросы читателей, расскажу о том, как я выбираю доноров для покупки «вечных» ссылок (полагаю, это будет интересно и тем, кто продаёт):

* Отдельный обзор или ссылка внутри тематического поста – выделение рекламного блока, постового от остального поста – не лучший вариант;
* Ссылка должна быть ближе к началу заметки;
* Обязательное появление ссылки на главной странице и в RSS (если это блог и ссылка покупается в новом посте);
* Тематическая заметка не менее 1000 печатных знаков, уникальный текст;
* Тематичность ресурса;
* Возраст более 1 года;
* ТИЦ более 20, Pr главной страницы>0;
* Страниц в индексе Яндекса, Гугла > 50;
* Не продаёт ссылок в автоматических биржах и вцелом не замусорен ссылками;
* Внешних ссылок на страницу не более 2-х (включая нашу);
* Оценка внешнего вида сайта: аккуратность, отсутствие всплывающих окон и т.д;
* Наличие трафика на сайте;
* Сайт должен развиваться: если не появляются новые материалы, а идёт лишь распродажа ссылок со старых постов, то это повод для недоверия;

Соблюсти все эти условия зачастую – нереально, но это не мешает стараться отбирать максимально хорошие ресурсы.

Покупать ссылки в новых постах или в старых, которые уже в индексе? Если какая-то из страниц ресурса-донора есть в топ 20 по нужному мне кею, то я стараюсь купить ссылку с неё, в остальном предпочитаю свежие материалы.

Если покупаю ссылки через биржи (1, 2, 3), то, помимо прочего, читаю описания, которые оставляют вебмастера. Ежели человеку хватило терпения рассказать о своём ресурсе, если он не поленился и сделал это, то можно предполагать внимательное отношение к блогу и надёжность вебмастера.
http://adne.info/otbor-donorov/?ashmanov&ashmanov

Хотинг и перенос доменов

Понедельник, 14 Марта 2011 г. 14:30 + в цитатник
Советы по выбору домена и хостинга

Не все сайтовладельцы знают, что доменное имя привычного вида – например, www.seopult.ru – это псевдоним. Он для удобства назначается с помощью системы DNS (domain name system). Реальный же адрес (IP-адрес) представляет собой последовательность из четырех цифр (0-255), разделенных точкой, которую трудно, да и бессмысленно запоминать (к примеру, IP-адрес seopult.ru – 217.197.124.53). К счастью, современный уровень сервиса регистраторов доменных имен и хостинг-провайдеров снимает необходимость разбираться в технических тонкостях. Все необходимые для регистрации и продления домена, размещения его на площадке хостинг-провайдера, переноса сайта с сервера одного хостера на другой можно проделать без глубокого понимания «матчасти». В этом нет ничего зазорного: совсем не нужно уметь чинить телевизор, чтобы его смотреть – и даже вести телепередачи.

Итак, сегодня мы рассмотрим основные моменты, связанные с доменами и хостингом. Для опытных вебмастеров это, в основном, тривиальные вещи, но начинающим эти сведения очень пригодятся.

Как зарегистрировать домен?

Если вы собираетесь работать в России, лучшим выбором станет домен второго уровня в зоне .ru (типа site.ru). Подойдут домены .info, .su, .net, но они ассоциируются у пользователей с некоммерческими проектами. И, что более важно, если домен занят в зоне .ru, то и в остальных пригодных для использования в России зонах тоже вряд ли будет доступен для регистрации.

Итак, при регистрации домена есть три пути:
Просто занять желаемое имя, которое по удачному совпадению окажется свободным. Это вполне вероятно, если название торговой марки уникально. Разумеется, домен vodka.ru занят чуть ли не с начала истории Рунета, но putinka.ru был свободен, так как никому не приходило в голову это слово до появления соответствующей торговой марки. Тут, конечно, лучше не зевать: домен следует регистрировать как можно быстрее. Если бы «Путинку» сначала вывели на рынок, а уж потом спохватились и вспомнили о домене, то он наверняка оказался бы в руках киберсквоттера. Что, кстати, для компании уровня «Винэксим» не так страшно: есть и юридические ресурсы для «отъема» домена через суд, и бюджет на выкуп. Для начинающего предпринимателя оба этих варианта вряд ли приемлемы. Гораздо лучше придумать альтернативное название для домена. Скажем, «Московский кредитный банк» мог взять и mkb.ru, и moskreditbank.ru, и moskredbank.ru (и так далее).


Связаться с владельцем домена и попробовать выкупить его. К сожалению, цена определяется только волей продавца и его ощущениями. Поинтересоваться стоимостью можно – в конце концов, это всего лишь одно письмо владельцу. Но рассчитывать на выгодную покупку можно лишь в том случае, если этот домен нужен только вам. В противном случае цена будет обескураживающей: например, casino.com был продан за 5,5 миллионов долларов.


Принять участие в аукционе на одной из популярных площадок: http://auction.nic.ru/, http://www.mastername.ru/auction/, https://partner.r01.ru/AUCTION/, http://www.webnames.ru/auction/. На них можно поискать как конкретный занятый домен (он вполне может быть выставлен на продажу), так и просто выбрать удачное, подходящее вашему бизнесу имя, а затем побороться за него в торгах.
Но все же самый лучший вариант – придумать свое имя для домена, а не платить спекулянтам. При этом, конечно, нужно помнить важное правило: хороший домен легко продиктовать по телефону, он «как слышится, так и пишется».

Важный совет: для проверки и подбора доменов пользуйтесь только сервисами на сайтах официальных регистраторов: например, https://www.nic.ru/cgi/na.cgi?step=n_a.na_extended. Маловероятно, но все же не исключено, что мелкие хостинг-провайдеры или, тем более, какие-то мошеннические сайты, регистрируют самые удачные домены из тех, что проверяли пользователи.
Если домен регистрируется с помощью хостинг-провайдера, он обычно автоматически размещается на площадке. Если вы воспользовались услугами регистратора доменов, имя не будет сразу привязано к площадке (что никак не помешает в дальнейшем разместить его на любом хостинге), а вы получите преимущество: прямой доступ к NS-записям, что окажется очень полезным для переноса домена с одного хостинга на другой.


Обязательно указывайте реальные паспортные данные и верифицируйте домен с предоставлением сканов паспорта. Это позволит без проблем переносить его в дальнейшем.

Выбор хостинг-провайдера

Основной критерий качества хостинга – надежность. Практика показывает, что аварии бывают у всех, однако крупные компании быстрее реагируют на проблемы, лучше защищают данные от утери и т.п.

Типы хостинга:
Виртуальный – ваш сайт запущен на сервере хостера одновременно с еще несколькими десятками или сотнями других. Это вполне нормальный вариант, однако если количество запросов к вашему сайту превысит определенный порог, он начнет работать очень медленно, а затем отключится – своего рода «естественный DDoS». Максимальное число посетителей, способных без проблем работать с сайтом на виртуальном хостинге, зависит от многих параметров (в первую очередь влияет CMS). Хотя предсказать устойчивость сайта к нагрузке нельзя, можно измерить ее с помощью инструментов типа http://loadimpact.com/ и http://loadstorm.com/. Обязательно проверьте сайт перед стартом масштабной рекламной кампании: очень глупо, например, проплатить рекламу в жж Артемия Лебедева и потерять всех потенциальных клиентов просто потому, что ваш сайт мгновенно ляжет от наплыва посетителей.


Виртуальный выделенный сервер (VDS) – то же самое, что и виртуальный сервер, но физический сервер обслуживает не тысячи сайтов, а единицы или десятки. Позволяет принимать больше посетителей, но при этом дешевле настоящего выделенного сервера. Еще одно преимущество по сравнению с виртуальным хостингом – полный контроль над настройками и ПО.


Выделенный сервер (dedicated) – настоящий физический сервер (мощный компьютер), установленный в дата-центре провайдера. Подходит для серьезных проектов. Можно воспользоваться как серверами хостера, так и установить свой – эта услуга называется colocation.


Облачный (кластерный) хостинг – самый современный вариант для проектов среднего уровня посещаемости. Для сайтов типа vkontakte.ru он не подойдет, так как это уже другой уровень (сотни тысяч посетителей одновременно, гигантский объем трафика), но поддерживать даже весьма крупные ресурсы с его помощью можно. Основная фишка «облака» – в возможности платить только за использованную процессорную мощность и не бояться обрушения сайта под потоком посетителей. Было 10 посетителей – заплатите минимум, 10000 – больше (зависит от тарифов конкретного хостера). Хотя это еще не самое распространенное решение в России, но для проектов с возможной или периодической высокой посещаемостью облачный хостинг весьма перспективен.

NS-сервера и перенос сайта

Перенос домена с одного хостинга на другой лучше всего выполнять по инструкции, размещенной на сайте нового провайдера. Если там нет такой инструкции, то подумайте дважды, нужен ли вам такой «продвинутый» хостер. Обычно процедура проходит в такой последовательности:
Сделайте резервную копию сайта (всех файлов и базы данных)!


Создайте аккаунт на новом хостинге, скопируйте директории и файлы сайта, создайте базу данных (если необходимо), проверьте пути к файлам.


Проверьте работу всех систем сайта на новой площадке.


Если использовалась электронная почта, создайте ящики на почтовом сервере нового провайдера.


Если у вас есть доступ к изменению NS-записей через панель управления регистратора имен, поменяйте записи старого хостера на новые (указаны в инструкции нового хостера). Если вы управляли доменом через панель хостера, это обычно можно сделать и там. Если вы регистрировали домен через хостера, но не можете изменить NS-записи через его панель управления, напишите письмо в техподдержку.


Еще раз проверьте работу сайта. Обратите внимание на такие моменты как: отправка писем с сайта (заполненные формы, «корзины» и тому подобные вещи), работу с файлами (например, загрузку картинок в CMS) и работу доменов третьего и дальше уровней (если имеются).


Снова сделайте резервную копию сайта, но уже с нового хостинга.
Ключевые моменты переноса – изменение NS-записей на новые и сохранение контроля над управлением доменом после отключения аккаунта старого хостинг-провайдера.


Понравилось: 1 пользователю

Drupal - 4 настройка шаблона темы

Пятница, 18 Февраля 2011 г. 16:57 + в цитатник
В папке sky/css в style.css стиль h1.site-name заменить на просто .site-name, то же самое в color.css в разделе Identity. То же для h2.site-slogan.
В папке sky /templates page.tpl.php в разделе вывода названия сайта и слогана заменить

на
(и закрывающий тег).
То же самое для

.


Drupal - 3 Настройка перевода интерфейса

Пятница, 18 Февраля 2011 г. 16:44 + в цитатник
Админ-Настройки-Перевод интерфейса. Вкладка Перевод. В поле Содержание строки вбить последовательно Read more и published by и соответствующие переводы.

Drupal - 2 Русификация Drupal 7

Среда, 16 Февраля 2011 г. 18:20 + в цитатник
Скачать перевод на http://localize.drupal.org/translate/downloads. Поместить скачанный файл в profiles/standart/translations. При установке системы выбрать язык русский.

Чеклист SEO-аудита

Среда, 16 Февраля 2011 г. 14:31 + в цитатник
Чеклист SEO-аудита

* Уникальность контента. Интересно, что эту проверку нужно проводить даже в том случае, если вы знаете, что писали контент самостоятельно. Изначально оригинальные тексты могут быть «утянуты» другими сайтами. При этом, к сожалению, не факт, что поисковая система присвоит вашему сайту статус первоисточника. Методики и инструменты проверки контента на оригинальность, а также способы защиты текста от копирования были приведены в выпуске нашей рассылки №6. Нужно обратить внимание не только на заимствования на чужих сайтах, но и на повторах внутри контента сайта. Желательно, чтобы один и тот же текст не повторялся на сайте несколько раз. Также стоит понимать, что дублирование материалов сайта в блогах, на форумах и в социальных сетях – это все-таки дублирование. Для каждого такого канала стоит писать оригинальные материалы, а не размножать одну и ту же статью или новость без изменений.

* Обновление контента. Крайне желательно, чтобы сайт имел хотя бы один регулярно пополняемый раздел (новости, статьи и так далее). Обновление контента – увеличение количества страниц с оригинальными текстами – дает поисковым система понять, что сайт «жив» и развивается. Важно это и с маркетинговой точки зрения: в подавляющем большинстве случаев актуальные новости помогают посетителям сделать выбор в пользу именно этого предложения.

* Чистка спама. Если на сайте есть гостевая книга, форум или какие-то средства для комментирования, регулярно проводите чистку спама. Поисковые системы негативно реагируют на замусоренные форумы и гостевые книги.

* Битые ссылки. При перемещении документов, удалении страниц или изменении URL через CMS (например, были адреса типа /news, а стали транслитовые /novosti) могут возникнуть «битые ссылки» – причем как внутренние (в контенте сайта), так и внешние (если исчезла или изменила адрес страница, на которую ссылаются другие сайты). Нужно следить за тем, чтобы все ссылки работали и перенаправляли пользователей и роботов поисковых систем на соответствующие страницы, а не на страницу 404. Например, если URL были изменены на SEF (search engines friendly), то при обращении к странице по старому URL должен происходить редирект с кодом 301 на ту же страницу с новым URL.

* Теги Title. HTML-тег Title определяет заголовок окна браузера:



У данной страницы этот тег такой: .

* Если речь идет об оптимизации страниц под поисковые запросы, необходимо соблюсти следующие правила:

o Максимальная, учитываемая Яндексом, длина тега Title – 62 слова.

o Начинать тег лучше с основного ключевого слова.

o Title виден посетителю сайта в заголовке окна, к тому же он используется поисковой системой при составлении сниппета сайта в результатах поиска (а от привлекательности сниппета зависит кликабельность и, в конечном итоге, посещаемость). Очевидно, что Title должен быть удобочитаемым, а не представлять собой мешанину ключевых слов.

o Не используйте в теге Title (и в теге Description) кавычки – это может спровоцировать проблемы с индексацией.

o Самое главное правило – уникальность. Теги Title на всех страницах сайта должны быть уникальными. Склейка и выпадение страниц из индекса из-за одинаковых тайтлов – весьма распространенное явление. То же самое, кстати, относится и к метатегам Keywords и Description. Не стоит клонировать их – если на сайте немного страниц, сделать их уникальными легко и вручную, а если страниц тысячи, то это обычно страницы товаров, уникализировать теги и метатеги которых можно автоматически, с помощью CMS.

* Оптимизация контента. Основное правило такое: если страница продвигается по какому-либо запросу, прямое вхождение этого запроса (то есть именно в продвигаемой форме) должно быть в тексте страницы. Для низкочастотных запросов достаточно одного вхождения, а для средне- и высокочастотных лучше ориентироваться на цифру, которую показывает Система SeoPult в столбце «Рек.» (рекомендуемое количество) на вкладке «Страницы» проекта. Но его не следует превышать, можно даже сделать меньше вхождений. Вообще следует стремиться к естественности – текст «для людей» лучше воспринимается современными алгоритмами поисковых систем, чем хитрые попытки проспамить контент.



o По оптимальному объему текста на продвигаемых страницах скажем так: смотрите на конкурентов, которые уже заняли ТОП.

o Желательно «разбавлять» длинные куски текста – делить их заголовками (теги ), вставлять иллюстрации, таблицы и так далее.

* Внутренняя перелинковка. Алгоритм Google PageRank и его аналоги в других поисковых системах учитывают не только внешние, но и внутренние ссылки. Подробнее о внутренней перелинковке и о том, чего с ее помощью можно добиться, читайте в рассылке №13.

o На этапе перелинковки желательно обратить внимание на то, какие URL используются – относительные или абсолютные. Желательно применение первых (сокращенного вида, типа /news/2011-10-10.html), а не вторых (http://www.yoursite.ru/news/2011-10-10.html).

* Проверка количества страниц в индексах «Яндекса» и Google. Соотношение фактического количества страниц сайта (эти данные предоставляются CMS) и количества страниц, попавших в активный индекс поисковой системы, является индикатором проблем с оптимизацией сайта. Если в индексе примерно столько же страниц, сколько открыто для индексации на сайте, все в порядке. Если же многие страницы исключены, стоит обязательно разобраться, почему.

o Количество страниц в основном индексе «Яндекса» проверяется с помощью «Яндекс.Вебмастера»: http://webmaster.yandex.ru/check.xml. Розовым прямоугольником выделена искомая цифра.



* Индекс Google устроен чуть-чуть сложнее: он делится на основной и дополнительный (Supplemental, «сопли»). Поиск осуществляется по обоим, но страницы из дополнительного индекса заметно менее «авторитетны» и будут показываться только в случае, если поисковый запрос найден только на них.

Чтобы посмотреть общий индекс (основной + дополнительный), необходимо задать запрос вида site:www.yoursite.ru/. При этом после первого результата лучше ткнуть мышкой на вторую или третью страницу, а затем вернуться на первую – тогда цифра станет более точной. Основной индекс показывается по запросу вида site:www.yoursite.ru /*:



Как видно на вышеприведенном примере, основные индексы Google и «Яндекса» для seopult.ru примерно одинаковы – порядка 200 результатов, что примерно соответствует фактическому количеству открытых для индексации страниц сайта. При этом в дополнительных индексах находятся страницы форума. Это вполне нормальная ситуация.

Еще раз перечислим «сигналы опасности»:

o в индексе намного меньше страниц, чем открыто для индексации на сайте;
o один из индексов заметно меньше другого;
o в индексе больше страниц, чем фактически есть на сайте (следовательно, в нем есть дубли и мусор);
o в индексе присутствуют нежелательные страницы (например, результаты внутренних поисков и сортировок, страницы логина в систему управления контентом и так далее). Все, что не нужно индексировать, должно быть закрыто с помощью файла robots.txt.

* Присутствие аффилиатов. До того, как поисковые системы – и в особенности «Яндекс» – начали эффективно и безжалостно бороться с аффилированными сайтами, они были хорошим подспорьем в борьбе за внимание целевой аудитории. Теперь же наличие дополнительного сайта со схожим контентом, контактными данными и так далее может привести либо к понижению в результатах поиска, либо к склейке – в этом случае по каким-то запросам будет показан только один из связанных сайтов, а второго в выдаче все равно не будет. Итак, дополнительные сайты необходимо закрыть или, по крайней мере, склеить с помощью редиректа с кодом 301 с дополнительного сайта на основной. Но иногда – пусть и достаточно редко – поисковая система помечает как аффилированные независимые сайты. Для проверки на аффилированность можно использовать запрос вида yoursite1.ru | yoursite2.ru. Если сайты не связаны, первым результатом будет страница первого сайта, вторым – второго (или наоборот, но обязательно оба). Если связаны – будут результаты только с одного из сайтов.

* Русскоязычные или незначащие URL. Если CMS выдает адреса страниц на русском языке (как в «Википедии», вида http://ru.wikipedia.org/wiki/%D0%A2%D1%80%D1%83%D0%B1%D0%BA%D0%BE%D0%B7%D1%83%D0%B1) или непонятные, вроде /?=18.php, стоит перейти к ЧПУ («человекупонятные URL», SEF URL’s – search engines friendly). Оптимальный вариант для поискового продвижения – транслит с включением ключевых слов, по которым продвигается страница. Его хорошо понимают поисковики: например, страница с URL вида /pylesosy/pylesos-philips-fc-9170.html будет более релевантна запросу «пылесос Philips FC 9170».

* Поисковый спам. Тег Keywords не предназначен для включения в него всего семантического ядра сайта на всех страницах. Огромные «простыни» текста с десятками вхождений ключевых слов – устаревший метод продвижения, который теперь приводит к пессимизации сайта. Нельзя размещать скрытый и уменьшенный текст с ключевиками. Эти и все прочие методики поискового спама использовать нельзя! Убедитесь, что ваш сайт не провоцирует поисковые системы на применение санкций.

* Следуйте правилам оптимизационной верстки.

o Заголовки разных уровней – от

до

– нужно использовать с умом: допускается только один

. Чем логичнее структура заголовков документа, тем лучше он воспринимается поисковой системой.

o Keywords – по объему не ограничен, но следует писать в него только слова, по которым продвигается страница, а не все подряд.

o Description – краткое описание страницы с включением основного поискового запроса. Должно подходить на роль сниппета, быть привлекательным, информативным и кликабельным.

o Ключевые слова можно выделить тегами смыслового акцентирования(, , ).

o Картинки и иллюстрации стоит снабжать описаниями с ключевыми словами в тегах Alt и Title – это поможет как увеличить релевантность страницы запросу, так и вывести эти изображения в выдачу поисковых систем (см. выпуск нашей рассылки №26).

o Теги должны быть открыты и закрыты корректно.

* Присутствие в «Яндекс.Каталоге» и DMOZ. Попытайтесь добавить сайт в эти основные каталоги – это очень полезно для поискового продвижения.

* Скорость работы, надежность и настройки сервера. Обратите внимание на все технические параметры, описанные в выпуске нашей рассылки №11.

* Отсутствие стороннего контента. Допускается интеграция видеороликов с Youtube и Rutube, но не «хотлинкинг» изображений с других сайтов. Все иллюстрации и, желательно, прочие материалы, нужно разместить на том же домене, что и сайт. Это поднимает вопрос заимствования изображений (поисковые системы в последнее время легко распознают копии) – конечно, всегда лучше использовать оригинальные материалы.

http://subscribe.ru/archive/inet.search.weboptimiz...01102/15181320.html/?clearview



Понравилось: 1 пользователю

Поиск сообщений в Olga21
Страницы: 7 6 5 [4] 3 2 1 Календарь