-Поиск по дневнику

Поиск сообщений в Olga21

 -Подписка по e-mail

 

 -Постоянные читатели

 -Статистика

Статистика LiveInternet.ru: показано количество хитов и посетителей
Создан: 20.10.2009
Записей: 146
Комментариев: 8
Написано: 161





Как заставить ссылки работать? 15 принципов наращивания ссылок

Четверг, 21 Февраля 2013 г. 13:19 + в цитатник
Когда речь заходит о ссылках, у многих знакомых оптимизаторов просыпается ностальгия по прошлым временам, когда любого конкурента в топе можно было обойти, просто увеличив ссылочный бюджет. С появлением MatrixNet отношение Яндекса к ссылкам изменилось:
– вес ссылки стал коррелировать с качеством акцептора (продвигаемого сайта);
– добавились временные факторы влияния ссылок;
– стала учитываться “ссылочная история”;
– seo-ссылки стали определяться поисковой системой и учитываться по-разному для коммерческих и некоммерческих запросов;
– появилась корреляция процента вхождений в анкоры с вхождениями в текст страницы;
– и т.д.

Иными словами, внешние ссылки стали сильно коррелировать с другими факторами ранжирования, влияние ссылочной массы на позиции сильно уменьшилось. В сентябре на блоге Яндекса появилось заявление об ограничении влияния искусственных ссылок; во время выступлений на осенних конференциях (в том числе и на конференции в Харькове), Александр Садовский неоднократно упоминал, что из 20 основных факторов, влияющих на ранжирование сайта, ссылочных только 2.

Сейчас у многих оптимизаторов создается впечатление, что по какой бы схеме и в каком количестве не покупались ссылки, они не влияют на позиции. Большинство вопросов по ссылкам, которые пришли мне на почту, можно свести к одной сути: работают ли ссылки и если да, то какие?

Ссылки по прежнему работают (и будут работать). Но для того, что б они помогали, а не препятствовали позициям вашего сайта, теперь не достаточно просто тщательно выбирать площадки для размещения.

Сегодня в качестве ответа на “ссылочные” вопросы я опишу свои принципы работы с ссылками в условиях MatrixNet. Не нужно думать, что советы актуальны только для продвижения в Яндексе – его забугорные и отечественные конкуренты преследуют ту же итоговую цель и тоже не стоят на месте.

Итак, 15 принципов наращивания ссылок.
Принципы стратегии в целом

1. Наращивайте ссылки постепенно. Оптимальное количество новых ссылок зависит от уже имеющейся ссылочной массы (чем больше ссылок уже есть, тем больше можно покупать). Быстрый прирост ссылок за определенный период может привести к наложению фильтра под неформальным названием “ссылочный взрыв”, при котором веса всех ссылок, появившихся в индексе за этот период времени, обнуляются.

Нюансы:
а) – чем чаще обновляется/пополняется сайт, тем динамичней можно наращивать ссылки;
б) – для новых сайтов начинать нужно с самого малого (в первые 3-4 месяца лучше вообще простимулировать появление естественных ссылок вместо того, что б покупать).

2. Наращивайте ссылки на разные страницы сайта. Старайтесь, что б как можно больше страниц сайта имели внешнюю ссылочную массу – это повышает общий авторитет сайта и облегчает его продвижени (именно поэтому после нескольких месяцев продвижения множества страниц сайта по СЧ/НЧ сайт при малых усилиях может выйти в Топ и по ВЧ ).

3. Кроме платного размещения, стремитесь к получению естественных ссылок, особенно с трастовых непродажных ресурсов. Понимаю, сказать легче, чем сделать., но при желании возможно все. Анализируя бэклинки конкурентов, я всегда собираю список таких ресурсов (региональные порталы, узкопрофильные каталоги, новостные ресурсы и другие сайты, которые не размещают ссылки платно), а потом стараюсь получить ссылку на каждом из них. Конечно, это долго и трудозатратно, но зато одна такая ссылка (даже без ключевика в анкоре) иной раз срабатывает лучше, чем пару десятков покупных.

4. Меняйтесь ссылками с ресурсами вашей тематики. Еще летом я писала о том, почему ссылочный обмен держит сайты в топе, сейчас же тенденция стала еще заметнее.

5. Не ожидайте быстрого эффекта. Как я уже неоднократно говорила, появление ссылок в панели Вебмастера еще не говорит о том, что они начали влиять на позиции сайта. В зависимости от обстоятельств, срок срабатывания ссылки может затянуться от 2 до 6 месяцев. Так что если новые ссылки появились в панели, а позиции не изменились, не спешите их снимать – “мигание” ссылок может затруднить продвижение сайта.
Принципы выбора ссылочных доноров

Большое количество “плохих ссылок” может привести к полному обнулению влияния ссылочных факторов на ранжирования сайта, поэтому к выбору площадок советую относится с особо внимательно.

1. Выбирайте площадки по совокупности показателей
– посещаемость площадки (сайт любят посетители=сайт любят поисковики);
– позиции площадки в результатах выдачи;
– нахождение сайта одновременно в yaca и DMOZ (в основном туда попадают только качественные ресурсы);
– возраст площадки (чем больше – тем лучше. Советую осторожно относится к платному размещению ссылок на ресурсах моложе 2 лет, на ресурсах до года платно не размещать вообще);
– количество и качество исходящих ссылок с конкретной страницы и сайта в целом (если ссылок много и/или среди них есть некачественные, лучше не иметь дела с такой площадкой);
– наличие внешней ссылочной массы у домена в целом и конкретной страницы, где собираетесь размещать ссылку, в частности;
– показатели “пузомерок” – высокий тИЦ и PR, низкий AlexaRan.

Каждый из этих показателей в отдельности имеет слабую корреляцию с качеством донора, но по совокупности нескольких характеристик можно сделать выводы о качестве площадки и отсеять мусор. Когда мне нужно проверить много ссылок сразу, я пользуюсь этим инструментом.

Подробно про стратегию платного размещения ссылок при продвижении в Яндексе я писала в статье для 12 номера журнала SeoDigest.

2. Тематика донора имеет значение
Но только в том случае, если:
– на странице нет внешних ссылок, кроме вашей;
– другие внешние ссылки на странице соответствуют вашей тематике.
Подробно об этом можно почитать в записи про Яндекс и покупные ссылки.

3. Не заказывайте АВТОпрогоны, АВТОпостинги, АВТОрегистрации и прочую автоерунду, при которой вы сами не можете контролировать выбор площадок для размещения. Появление большого количества ссылок с рерусрсов сомнительного качетсва за короткий срок не принесет никакой пользы сайту, но затруднить дальнейшее продвижение может вполне.
Принципы размещения ссылок

1. Старайтесь разместить ссылку там, где по ней будут переходить посетители.
Повышенное внимание поисковиков к поведенческим факторам подталкивает к предположению, что кликабельность ссылки вполне может влиять на передаваемые ею вес: если по ссылке переходят, значит она размещена для пользователей (а не для ботов) -> это естественная ссылка -> ее влияние на ранжирование можно не ограничивать.

2. Размещайте ссылку подальше от остальных внешних ссылок и как можно ближе к началу страницы
Согласно моим наблюдениям, ссылки, которые размещены в стандартных ссылочных блоках по несколько штук подряд (как правило, в футере сайта), практически не работают. Чем ближе ссылка к началу страницы – тем лучше. Если на странице размещаются другие внешние ссылки кроме вашей, старайтесь, что б ваша ссылка отделялась от других ссылок текстом.

3. Старайтесь разместить ссылку на странице, в title и тексте которой употребляются такие же ключевые слова, как и в вашем анкоре.
Согласно моим наблюдениям, такие ссылки работают лучше (особенно если на странице больше нет внешних ссылок).

4. Кроме стандартных ссылок с проиндексированных страниц, ставьте ссылки со страниц, которые еще не попали в индекс. Согласно моим наблюдениям, ссылки, которые попадают в индекс вместе со страницей, в некоторых случаях более заметно влияют на позиции, чем ссылки, проставленные на уже проиндексированных ранее страницах. Такие ссылки можно получить как платно (размещая платные статьи и заметки), так и естественным путем (публикуя релизы и описания своей компании/блога/сервиса с прямой ссылой на других сайтах).

5. Размещайте ссылки навсегда. Этого принципа должны в первую очередь придерживаться вебмастера, развивающие свои проекты, которые имеют долгосрочную перспективу. Чем дольше стоит внешняя ссылка, тем больший вес она передает. Есть много примеров ресурсов, которые держатся в топе по ВЧ в основном за счет ссылок, размещенных более года назад.
Принципы составления анкоров

1. Анкор ссылки, содержащий ключевые слова, должен четко соответствовать содержанию страницы, на которую он ссылается
После изменений в формуле ранжирования в октябре этого года анкоры ссылок стали еще больше коррелировать с текстовой релевантностью страницы-акцептора. И если содержание страницы не соответствует ключевым словам в анкоре, ссылка будет иметь очень слабый вес.

2. По моим наблюдениям, “безанкорные” ссылки все еще работают, хоть другие специалисты считают иначе. Некоторые сайты, в том числе и в коммерческих тематиках, стабильно держатся в топе с июля этого года, имея только безанкорные ссылки.

А в остальном я использую те же принципы составления анкоров, о которых писала ранее.

При работе с ссылочным сегодня главное понимать, что какими бы ни были качественными ссылки, процент их влияния по отношению к другим основным факторам – всего 10%, а корреляция с другими факторами очень высока. Поэтому начинать работу над продвижением сайта (как и анализ причин, когда сайт не выходит в Топ), всегда нужно качества сайта в целом, с его внутренней релевантности и удобства для пользователей.


http://optimizatorsha.ru/master-classes/naraschivanie-ssylok/

РСЯ Места расположения блоков

Четверг, 14 Февраля 2013 г. 17:59 + в цитатник
Иной раз оптимизация блоков РСЯ позволяет увеличить доход площадки в 2-3 раза, и если вы хотите выжать из своего сайта максимум, нужно экспериментировать.

Итак, рассмотрим подробно, что именно и как влияет на доход площадки в РСЯ.

1. Места расположения блоков

Универсальная тепловая карта Google Adsence отлично иллюстрирует самые подходящие (кликабельные) места для размещения рекламных блоков контексной рекламы.

тепловая карта

Конечно, каждый сайт имеет свои особенности, которые могут влиять на восприятие контекстной рекламы, но при первоначальном размещении блоков вполне можно ориентироваться на на этот базовый шаблон.

Блок №1 – Самое эффективное место. Это центральная часть “первого экрана” – именно сюда подсоздательно смотрит большинство посетителей при первом заходе на сайт. Если на странице разместить четыре рекламных блока в самых выгодных местах, то Блок №1 будет зарабатывать в 2-3 раза больше всех остальных блоков, вместе взятых. Передвигая блок выше-ниже, Вы можете подобрать более выгодное место (многое зависит от контента, который находится вокруг блока).

Блок №1 – Самые дорогие клики. РСЯ выводит дорогую рекламу в блоках размещенных в верхней части сайта.

Блок №2. Как правило, в этом месте большинство посетителей ожидают увидеть основное меню сайта. Если же здесь размещена контекстная реклама, пользователи зачастую кликают на нее, ошибочно принимая за навигацию. Происходит некий обман посетителя, за счет которого повышается CTR. По моим наблюдениям, при одновременном размещении контекста в Блоках 1 и 2, эффективность Блока 2 значительно ниже.

Блок №3 – контентная часть сайта, довольно эффекное место для контекста. Обычно в этой части страницы посетитель задерживается дольше всего, чем и объясняется хорошая кликабельность блока.

Как правило, в Блоке №3 – самый высокий CTR.

Блок №4 – место под контентной (содержательной) частью страницы. Хоть этот блок находится за пределами “первого экрана”, его CTR тоже достаточно высок – здесь посетитель заканчивает просмотр страницы и готов перейти куда-либо дальше, и контекстная ссылка тут бывает очень кстати.

Блок №4: Хотите увеличить прибыль на 10-15% – просто поставьте этот блок.

Размещать рекламу в других блоках я не вижу смысла, за исключением случаев, когда дизайн сайта сделан так, что уводит внимание посетителя от основных блоков.
2. Оформление блоков

На конференции «РИФ + КИБ 2010» Евгений Ломизе представил статистику влияния различных факторов на эффективность рекламных блоков (источник).

Размер шрифта объявления

Обычно размер шрифта контекстного объявления не превышает 1.0 (стандарт), либо вообще не указан. На графике №1 показано, насколько существенно влияет размер шрифта на кликабельность объявления. Блок с размером шрифта от 1.0 до 1.5 встречаются не так часто, а больше 1.5 я мне вообще не попадались. Чем больше шрифт – тем выще CTR. Большие размеры шрифта объявлений идут вразрез с правилами РСЯ – реклама будет выглядеть “важнее” контента. А вот шрифт чуть больше единицы (или стандартного размера шрифта контента) вполне допустим и эффективен.

размер шрифта рся

Тип шрифта
На Графике №2 видно, что самый эффективный шрифт — это Courier New, но его редко используют из-за внешней неприглядности. Согласно моему опыту, все несколько иначе – чем читабельнее шрифт объявления на фоне страницы, тем больший CTR контекстного блока.

гарнитура шрифта рся

Число объявлений в блоке
Не стоит размещать более 4х объявлений в одном блоке. Если вы хотите разместить больше рекламы – лучше разместите больше блоков на странице.

количество объявлений рся

Рамка вокруг блока
Целеобразность рамки вокруг объявления зависит от дизайна сайта. Не стоит забывать, что люди не любят навязанную рекламу. Слишком приукрашенные блоки будут негативно восприниматься посетителями.

рамка объявлений рся

Тип блока
Действительно важный нюанс, сильно влияющий на CTR объявления. Самым эффективным в плане CTR считается центральный плоский блок. Для блоков внутри контента больше подходят вертикальные формы.

тип блока рся

Цвет объявления
Рекламный блок не должен резко выбиваться из дизайна сайта. Яркие рекламные блоки привлекают внимание, но одновременно раздражают посетителя. Для достижения максимального эффекта, цветовая палитра должна оставаться близкой к палитре сайта. Заголовок объявления можно сделать чуть ярче заголовков основного контента сайта.
3. Что Вы рекламируете?

Следите за тем, какие объявления Вы показываете посетителям. Например, если Ваш сайт посвящен аренде жилья, то 90% посетителей не интересует продажа квартир в новых жилых комплексах, а такая реклама по умолчанию тоже показывается. И хотя стоимость клика по таким объявления выше, их CTR гораздо ниже среднего. Поэтому лучше занести таких рекламодателей в черный список («Блокировать конкурентов»), дабы не показывать рекламу напрасно.

Кликнув по ссылке «Все объявления» над вашим контекстным блоком, можно увидеть список всех потенциальных рекламодателей. Они перечислены в порядке убывания цены за клик.

all

Стоит обратить внимание и на настройку поведенческого таргетинга. Как сказано в разделе «Помощь» РСЯ, при включении показа объявлений с поведенческим таргетингом, CTR увеличивается, но, по моим наблюдениям, это не всегда так. Поведенческий таргетинг показывает посетителю «запоздалые» объявления по темам, которыми посетитель интересовался ранее. Здесь общих тенденций для всех площадок нет – лучше экспериментировать индивидуально с каждым сайтом.

поведенческий таргетинг рся
4. Качество площадки

Все рассмотренные выше факторы влияют непосредственно на CTR объявления. Теперь рассмотрим более сложный фактор, который влияет на цену клика – качество сайта.

Качество рекламной площадки оценивается с помощью данных Яндекс.Метрики. Хотя официально нигде не говорится о конкретных факторах, влияющих на цену клика, опираясь на свои наблюдения, я могу предположить, что на качество площадки влияют три коррелирующи между собой показатели:

1. Глубина просмотра – сколько страниц сайта просматривает в среднем один пользователь. Этот показатель говорит о том, насколько интересен пользователю данный ресурс. Чем выше глубина просмотра – тем качественней сайт.

2. Время, проведенное на сайте. Если пользователь нашел ответ на свой запрос уже на первой открытой им странице сайта, он может просматривать ее достаточно долго, не переходя на другие страницы. Если же на сайте нет нужной ему информации, пользователь может в течении 10 секунд просмотреть 3-4 страницы и уйти с сайта. Чем больше времени посетитель проводит на сайте – тем выше его качество.

3. Показатель отказов – процент посетителей, которые покинули сайт, просмотрев только 1 страницу. Если большой процент отказов сопровождается недолгосрочностью просмотра страницы, это говорит о том, что посетители не нашли на сайте того, что искали, что свидетельствуе не в пользу его качества.

яндекс метрика и рся

Кроме качества площадки, РСЯ анализирует конверсию кликов с Вашей площадки.. Если большинство посетителей, кликнувших по рекламе, проводят на сайте рекламодателя всего несколько секунд – стоимость клика снижается.
Цена клика или CTR?

Существует некая закономерность — при повышении цены клика падает CTR, и наоборот. Почему так происходит?

Повышая CTR, мы сами отправляем посетителей со своего сайта, ухудшая показатели, влияющие на стоимость клика – уменьшается глубина просмотров и время, проведенное на сайте, растет число отказов. И наоборот – повышение цены клика иногда является последствием снижения CTR (сокращения количества рекламных блоков, показов дорогих, но не всегда релевантных объявлений и т.д.).

Качественнай сайт, созданный не для рекламы, а для людей, не может позволить себе большой CTR. Выбор за Вами.

http://optimizatorsha.ru/zarabotok/povysit-dohod-ot-konteksta/

Drupal 15. Форма обратной связи

Суббота, 12 Января 2013 г. 20:16 + в цитатник
Чтобы установить на сайт форму обратной связи, надо скачать и установить модуль Contact. Включить данный модуль в меню Администрирование/Модули. Затем включить пункт меню Контакты в меню Администрирование/Структура/Меню/Навигация. При необходимости можно в данном меню перенести Контакты из меню Навигация в другое меню.
Чтобы форма обратной связи была доступна всем посетителям сайта, а не только зарегистрированным пользователям необходимо выполнить следующие действия. Перейти в пункт меню Администрирование/Пользователи вкладка Права доступа. Установить все три галочки в строке Доступ к контактной форме сайта.

Что такое эффективные показы

Пятница, 21 Декабря 2012 г. 11:35 + в цитатник
Количество эффективных показов представляет собой прогноз того, сколько раз в течение месяца пользователи увидят данный сайт в результатах поиска. Эффективные показы зависят от популярности поисковых запросов, определяющих данную тематическую рубрику, и позиций, которые сайт занимает в результатах поиска. Количество эффективных показов (ЭП) рассчитывается по формуле:

ЭП = Сумма (ППЗ*КППС*КП)
где
ППЗ — популярность поискового запроса. Определяется как количество поисковых запросов с данной формулировкой во всех поисковых системах Рунета в течение некоторого времени.
КППС — коэффициент популярности поисковой системы, рассчитываемый как доля трафика из заданной поисковой системы по отношению ко трафику из всех поисковых систем Рунета.
КП — коэффициент позиции в результатах поиска.
Суммирование производится по всем запросам тематической рубрики и по всем позициям, если сайт и его зеркала занимают несколько позиций в результатах поиска. При расчетах мы используем следующие коэффициенты позиций сайтов:
1, 2 и 3-я позиции — коэффициент 1
4-я позиция — 0,85
5-я позиция — 0,6
6 и 7-я позиция — 0,5
8 и 9-я позиция — 0,3
10-я позиция — 0,2
Эти коэффициенты были получены в результате исследования распределения внимания пользователей поисковых систем, проведенного компаниями Did-it, Enquiro и Eyetools в 2005 году.
Источник: SeoRate.ru .

Drupal 14. Если в sitemap отображается только одна страница

Пятница, 14 Декабря 2012 г. 14:32 + в цитатник
В меню Структура\Типы материалов для каждого типа материалов войти в редактирование (ссылка "Изменить"). Перейти на вкладку XML Sitemap. Установить значение поля Inclusion в положение Included

Drupal 13. Список последних статей в Drupal

Вторник, 04 Декабря 2012 г. 11:30 + в цитатник
Когда делал этот сайт, решил я блин, что на нем блок с последними статьями. А то чо у всех есть, а у меня нету. Но так как в Drupal я тогда был очень слабо подкован, да и сейчас, к сожалению, не лучше, то, как сделать это правильно, модулем Views, я не знал. А разбираться было ужасно лень. И вот решил я, что написать этот блок на PHP (хоть и на PHP я только быдлокодить умею) и потом вставить его в файл (page.tpl.php) темы будет проще.

Для начала, я полез в phpMyAdmin смотреть, какие таблицы есть в базе данных и где храниться нужная мне информация.

Оказалось информация обо всех статьях храниться в таблице node, где поле nid, на сколько я понял, id ноды. Осталось вытащить последние пять ID’шников и сформировать ссылки на статьи вида http://seolab.name/node/nid. Но есть один нюанс, на сайте установлен и работает модуль Pathauto, который автоматически формирует синонимы для каждой записи, поэтому изложенный выше способ формирования URL не совсем подходит.

Просматривая таблицы дальше, я нашел где хранятся синонимы – в таблице url_alias. Поле src в которой указывает на ноду, для которой сформирован синоним и имен вид node/nid. И поле dst, где собственно и указан синоним.

Осталось только вытащить эти данные и сформировать html-список со ссылками на 5 последних статей. Получилось так:






http://seolab.name/spisok-poslednikh-statei-v-drupal

Drupal 12. Как обновить Drupal 7 (c версии 7.x до 7.y)

Вторник, 04 Декабря 2012 г. 11:27 + в цитатник
Проверяем необходимость проведения обновлений

Итак, для того чтобы проверить нужно ли обновлять ядро перейдите на соответствующую страницу Вашего сайта: /admin/reports/updates. Она выглядит вот так:

Страница отчета о доступных обновлениях

Как видно, в моем случае требуется обновить версию ядра до версии 7.4. Приступим.
Убеждаемся что наша учетная запись имеет права на обновления

Для начала убедитесь, что Ваша учетная запись обладает нужными правами, а именно должно быть выдано разрешение на обновление программных проектов, как показано на скриншоте:

Разрешение на обновление скриптов
Переводим сайт в режим технического обслуживания

Теперь нужно перевести сайт в режим технического обслуживания, для этого перейдите на Вашем сайта в: /admin/config/development/maintenance выставите единственный чекбокс и наживайте "Сохранить настройки". Выглядит это вот так:

Переводим сайт в режим технического обслуживания
Удаляем старые файлы

Теперь из корневой папки Вашего сайта нужно удалить все папки и файлы, кроме папки /sites и возможно еще каких-то Ваших файлов, которые Вы, возможно, добавляли или меняли. В частности, вероятно Вы меняли файлы .htaccess и файл robots.txt. В этом случае скопируйте эти файлы и после завершения установки внесите те же изменения, что Вы вносили в эти файлы еще раз, но уже в новые файлы. Также обязательно посмотрите (в описании к релизу) нет ли обновлений со стороны разработчиков в файле settings.php. Если есть информация, что в устанавливаемом релизе есть изменения в этом файле, то необходимо скопировать старый файл settings.php (он находится в /sites/default), а после завершения процесса обновления заменить в новом файле settings.php строчки, которые Вы меняли (возможно, неявно), например, имя базы данных, логин к базе данных и пароль.
Загружаем новые программные файлы Drupal

Теперь нужно загрузить со страницы проекта drupal архив новой версии ядра, разархивировать и скопировать содержимое в корневую папку Вашего сайта, там где до этого были папки и файлы предыдущей версии.
Обновляем файлы .htaccess и robots.txt

Если Вы вносили изменения в файлы .htaccess или robots.txt и выше делали их копии, то следует внести соответствующие изменения в новые версии файлов.
Обновляем структура таблиц базы данных

Теперь необходимо обновить таблицы базы данных, для того, чтобы они имели вид необходимый для новой версии drupal. Для этого запустите скрипт update.php. Т.е. в адресной строке набираете example.ru/update.php (заменив example.ru) на Ваш домен.
Убеждаемся что последние обновления установлены

После завершения обновления таблиц убедитесь, что обновления корректно установлены и что новых версий не существует. Для этого запустите отчет об обновлениях на вашем сайте: /admin/reports/updates.

Убедитесь, что стоит запрет на свободное проведение процедуры обновления таблиц баз данных. Для этого откройте файл settings.php, который находится на вашем сайте в: /sites/default. Примерно в середине найдите строку: $update_free_access = FALSE; Если строка выглядит именно так, то все OK.
Выводим сайт из режима технического обслуживания

Осталось только вывести сайт из режима обслуживания и все. Для этого перейдите на вашем сайте в /admin/config/development/maintenance и снемите единственную галочку и нажимайте «Сохранить настройки».

Обновление завершено!


http://kostbash.ru/content/kak-obnovit-drupal-7-c-versii-7x-do-7y http://kostbash.ru/content/kak-obnovit-drupal-7-c-versii-7x-do-7y

Drupal 11. как войти в учётную запись, если блок ввода логина удалён

Вторник, 04 Декабря 2012 г. 10:51 + в цитатник
В Drupal7: http://mysite.ru/user/login

Drupal 10. Ошибка при обновлении материала на W7

Суббота, 01 Декабря 2012 г. 13:58 + в цитатник
Ошибка типа:
Warning: file_put_contents(temporary://fileY9bl4k) [function.file-put-contents]: failed to open stream: "DrupalTemporaryStreamWrapper::stream_open" call failed в функции file_unmanaged_save_data() (строка 1904 в файле /home/users2/g/gallerylight/domains/gallerylight.myjino.ru/includes/file.inc).Невозможно создать файл.
Warning: file_put_contents(temporary://fileDZMqwG) [function.file-put-contents]: failed to open stream: "DrupalTemporaryStreamWrapper::stream_open" call failed в функции file_unmanaged_save_data() (строка 1904 в файле /home/users2/g/gallerylight/domains/gallerylight.myjino.ru/includes/file.inc).Невозможно создать файл.

Означает, что настройка
Главная » Управление » Конфигурация » Мультимедиа

Временная папка

указывает на недоступную для записи область, например, C:\WINDOWS\Temp.

Поменять на доступную, например, на диск d.

Как проверить, находится ли сайт под санкциями Яндекса?

Среда, 21 Ноября 2012 г. 13:43 + в цитатник

Уникальный контент

Среда, 21 Ноября 2012 г. 13:41 + в цитатник
Привет мои дорогие читатели. Уникальный контент — это фундамент продвижения и построения блога. Если вы всерьез решили заняться созданием СДЛ сайта (сайта мощного, посещаемого и интересного), тогда перед вами несомненно встает ряд вопросов: "Где взять уникальный контент? или «Создание уникального контента».

уникальный контент

Любого новичка, который мечтает об огромной посещаемости и хорошем заработке на своем сайте, поиск уникального контента заводит в ступор. Многим знакома ситуация, когда садишься за написание очередной статьи в свой блог начинаешь чесать затылок и думать: «А о чем, мне сегодня написать?». Если вы понимаете, о чем идет речь, читаем пост внимательно и до конца.


План статьи будет следующим:

1) Что такое уникальный контент?
2) Основные достоинства уникального контента;
3) Способы создания уникального контента;


Уникальный контент



где взять уникальный контент



1) Что такое уникальный контент?

Это такое соотношение, в процентном виде, частей созданного текста, к уже существующему тексту, который находится в индексе поисковых систем. Оценить контент на уникальность может не только робот поисковика, но также и любой желающий.

На данный момент в сети интернет существует огромное множество сервисов предоставляющих данную услугу. Из самых популярных можно выделить: Antiplagiat и Сopyscape, а также популярные программы Advego Plagiatus и DCFinder.

Лично я, из всех сервисов для проверки текста на уникальность, решил остановиться на программе Advego Plagiatus, потому что она покорила меня своей простотой и функциональностью, что не хочется даже использовать другие. Скачать ее можно с официального сайта производителя ADVEGO.

Вам необходимо скопировать проверяемый текст и вставить его в редактор программы, далее нажать на кнопку «Проверка уникальности».



создание уникального контента



После окончания проверки (время проверка занимает в зависимости от объема текста) в окне появится ваш текст. Если контент имел совпадения, тогда такие части текста будут подсвечиваться другим цветом.



advego plagiatus скачать бесплатно



Внизу программы произойдет перечисление ссылок, которые имеют совпадение с вашим текстом.



программа advego



А в заключении проверки программа выдаст процентное соотношение. Если больше 90%, тогда считается для поисковиков такое соотношение уникальным контентом.



бесплатный уникальный контент



2) Основные достоинства уникального контента:

— Выход в ТОП-10 по НЧ-запросам;
— Увеличение посетителей сайта;
— Рост показателей страницы PR и всего сайта ТИЦ;



3) Способы создания уникального контента;

Первый. Селфрайтинг. Самостоятельное написание контента. От вас потребуется логичное и понятное изложение своих мыслей. Это самый трудоемкий способ, чтобы получить уникальный текст, зато результат будет максимально эффективный. Советую остановиться исключительно на нем, но как говорится: «Каждому свое!». Скоро я выложу подробную статью, о том «Как писать статьи для блога», чтобы не пропустить подпишитесь на обновления страниц сайта.

Второй. Реврайтинг. Изменение уже существующего текста. Берется любой текст и переписывается только своими словами. Данный способ имеет место на существование, так как каждый человек по разному воспринимает информацию. Если приложить максимум усилий, сможет получиться контент в десятки раз лучше и интереснее донора, что в результате будет приводить трафик.

Третий. Сканрайтинг. Сканирование журналов, газет, книг и т. д. Зайдите в библиотеку и найдите там старые книги, есть большая вероятность, что ее содержимого еще нет в сети. Такой материал возможно для читателей будет не очень интересен, зато для сайта сателлита подойдет, а также заработка на sape. Об этом я писал в статье «Продажа ссылок в SAPE.ru».

Четвертый. Перевод статей. Думаю здесь все понятно, надо взять статью на иностранном языке и перевести ее на русский. А где ее взять?

Для этого переходим в буржунет и отыскиваем интересующую тему на информационных сайтах. С переводом проблем быть не должно, ведь сейчас настолько огромен выбор онлайн переводчиков, аж глаза разбегаются.

Далее переводим найденную страничку и справляем недостатки перевода своими пальчиками, неправильные окончания и построения предложений. Полученный уникальный контент еще раз прогоняем через программу Advego Plagiatus и если есть какие-то совпадения немного рерайтим.

Пятый. Биржи купли-продажи котента. Самый хороший способ (минус в том, что он платный), позволяющий получить уникальный контент для сайта.

Выбираете одну из бирж: TextSale, Copylancer, Etxt, Advego. Создаете свою «Компанию». Добавляете «Новый заказ», где указываете все необходимые настройки: тип заказа, настройки публикации, стоимость и др.

http://seoslim.ru/site-s-nulja/unikalnyj-kontent-i-gde-vzyat-unikalnyj-kontent.html

Как вывести сайт из-под фильтров

Среда, 21 Ноября 2012 г. 13:40 + в цитатник
Здравствуйте друзья и коллеги по информационному бизнесу в интернете. Я решил принять участие в конкурсе на форуме. Для меня это первый мой пост, так, что прошу судить меня не строго, это будет моя проба пера на этом форуме. Почему я решил разобрать именно эту тему – спросите Вы, да потому, что данная проблема коснулась меня лично, как владельца блога.

И хотя мой блог относительно молодой, возраст его около 5-ти месяцев, но в него было вложено столько сил и эмоций, что очень обидно было осознать, что блог попал в немилость Яндекса и попал под фильтр АГС. Обидно и прискорбно осознавать, что мой сайт попал под фильтр АГС, какой-то робот вдруг решил, что мои статьи не заслуживают доверия, что бы быть в выдачи Яши.

После суток уныния и «соплей», я сказал себе, что Александр хватит ныть, а нужно что-то делать, что бы решить возникшую проблему и выйти из под фильтра Яндекса. В поисках нужной информации и решениях поставленной задачи, я перерыл весь интернет, всю эту паутину, пытаясь найти проверенные решения и ходы по выходу из под АГС. И в этой статье я попытаюсь более-менее подробно описать все шаги по решению этой проблемы. И самое главное, что эти все шаги я применяю на практике, что бы выйти из под АГС. И думаю, что месяца через два – три, проблему эту я решу, это все таки АГС, а не БАН. И если проделать все правильно, то это все решаемо. После обязуюсь, что отпишусь и расскажу Вам, помогло это мне или труд был напрасным.

Проблема возникла не сразу. После успешной двух месячной индексации сайта Яшей и выдачей страниц в поиск, я решил, что надо немного подправить файл robots.txt, и в результате моих манипулирований с этим файлом, я стал замечать, что с каждым днем количество страниц в выдаче стало уменьшаться, и когда их число стало меньше десяти, я понял, что попал под фильтр АГС Яндекса. Я думаю, что главная моя ошибка в редактировании файла robots.txt, заключалась в том, что в директиве HOST, я поменял имя главного зеркала сайта с WWW, на то, что прописал имя сайта без этой абвиатуры. Остальные изменения этого файла были незначительны. Но все последующие проблемы начались именно тогда, когда я стал экперементировать с robots.txt. Давайте приступим к конкретике.

АГС – это фильтр Яндекса, в котором присутствует определенный алгоритм работы этого робота, по определению некачественных страниц сайта, для того чтобы не позволять им попадать в выдачу поисковика Яши. Этим Яндекс пытается решить проблему некачественных ресурсов и этим помочь пользователям находить качественную и полезную информацию для решения вопросов забитых в поиск. Самый первый фильтр Яндекс выпустил под именем АГС-17, но поскольку после его работы на просторах всемирной паутины, выяснилось, что он не только избавил поисковую выдачу от плохих ресурсов, но и включил в это число очень много сайтов с качественным контентом. То после этого эксперимента, программисты Яши его доработали, и на поиск «гавносайтов» вышел уже обновленный АГС-30

Если проиндексировано страниц, скажем 250, а в выдаче находится до 10-ти страниц, то это значит сайт попал под санкции АГС
( это можно посмотреть в Яндекс.Вебмастер)

Страшного в принципе здесь ничего нет, так как АГС-30, это не БАН Яндекса.

Рассмотрим причины попадания под фильтр АГС


1. Причина может состоять в том, что посещаемость сайта очень низкая. При этом может учитываться поведенческий фактор посетителей на ресурсе, то есть сколько времени посетитель затратил, находясь на страницах ресурса и какие действия он там совершал. Сколько он посетил страниц сайта, сколько он совершил внутренних переходов на сайте и т.д.
2. Причина может состоять в том, что Вы осуществляете продажу ссылок с Вашего ресурса. Когда Вашему сайту меньше чем полгода, и даже если к этому времени у сайта уже есть заслуги в виде ТИЦ и PR, то не рекомендуется начинать продавать ссылки с сайта.
3. Причина может состоять в том, что на сайте присутствует дублированный контент.
4. Причина может состоять в том, что слишком мало сайтов ссылаются на Ваш ресурс или этих ссылок вообще нет. Или еще хуже, когда сайту от роду месяца два, а на Ваш сайт уже много ссылок с «жирных сайтов» или просто много ссылок на сайт. И поэтому поисковики понимают, что эти ссылки покупные. Пока сайт еще молодой не в коем разе нельзя прогонять его например по базам каталогов.
5. Причина может состоять в том, что на Вашем сайте не уникальный контент, то есть Ваши статьи скопированные с других ресурсов или у них велик процент совпадений текста с текстом на других ресурсах интернета. Для проверки уникальности контента используйте онлайновые сервисы проверки текста или специальные программы проверки. Например, программа Advego Plagiatus. Так же текст может быть плохо читаемый обыкновенным человеком, то есть сгенерированный специальными программами.
6. Причина может быть в том, что размещенные картинки для Ваших постов вы скачивали только с Яндекс-Картинки, при том еще размещая их у себя Вы даже не потрудились их как либо видоизменить, например на картинке написать адрес Вашего сайта.

Шестая причина имела быть место в моем случае. Я все картинки скачивал с Яндекс-Картинок и без изменений кидал в свои посты. Причем размещал их только в одном определенном месте поста (в начале текста слева). Но это еще можно понять, но когда, пытаясь решить свою проблему и посещая различные тематические форумы, я сталкивался с тем, что люди пишут, что попали под АГС из-за того, что на своих молодых сайтах размещали довольно много баннеров и при этом еще присутствовали блоки с контекстной рекламой от Гугла. В этом случаи робота понять тяжело, что ему не нравиться.

Шутка – юмора: друзья предлагаю всем нам вебмастерам скинуться и подкупить одного из ведущих специалистов Яндекса, чтобы выяснить алгоритм работы фильтра АГС-30. Я пишу этого потому, что никто точно не знает по каким критериям, сайты попадают под АГС. Мы только можем догадываться, что и почему, и поэтому действуем наугад, как слепые котята.

Как правило действие АГС распространяются на сайты возрастом до года.


Давайте разбираться, что делать


1. Сначала давайте разберемся, в какую мы попали ситуацию. Мы попали под БАН или под АГС ? Распознать БАН легко, так как при этом проиндексированных страниц 0 и в выдаче 0. А действие АГС, это когда число страниц попавших в выдачу постепенно падает и стремится к числу которое меньше десяти.
2. Потом мы начинаем разбираться по каким причинам, мы попали под действие АГС. Конечно, точно определить причины у нас не получится, мы можем только догадываться о причинах попадания. Но, наверное, каждый из нас может вспомнить свои промахи.

Начинаем устранять причины


1. Когда причина в продажных ссылках.
- удаляем все продажные ссылки
- повышаем количество внутренних ссылок, то есть, делаем грамотную внутреннею перелинковку сайта
- на регулярной основе постоянно публикуем новые статьи. Рекомендуется писать каждый день по новому посту.
- каждую неделю покупаем ссылки с тематических сайтов, но здесь не нельзя перестараться. Покупать в неделю 5-7 ссылок. При этом полезно еще скачать базу трастовых сайтов и регистрироваться в них на постоянной основе.
- подыгрываем Яндексу и устанавливаем у себя счетчик Яндекс-Метрики.

2. Когда причина в некачественном контенте.
- удаляем весь некачественный контент или переписываем его.
- желательно каждый день публикуем новый пост, желательно по два поста в день. Стараемся писать тексты разной длины и вставлять в них картинки скачанные с Гугла Картинок, при этом размещая их в разные места контента. При этом картинки надо как-то видоизменить.
- покупаем внешние ссылки с тематических сайтов у которых ТИЦ не ниже 50. Этих ссылок не должно быть больше 10 и вести они должны на главную страницу сайта.

3. Когда причина в дублировании контента.
- весь дублирующийся контент закрываем от поискового робота, что бы он его не индексировал. То есть в файле robots.txt прописываем команду Disallow: и запрещаем этим индексацию тегов, категорий, архивов, результатов поиска. Пример:

Disallow: /search/*
Disallow: /2011/*
Disallow: /author/*
Disallow: /tag/*
Disallow: /category/*

- закрываем тегом noindex в сайдбаре архив, меню категорий, календарь, облако
тегов, форму авторизации, последние комментарии. Короче закрываем все кроме
ссылок на статьи сайта и на страницы вашего сайта
- после выхода сайта из под фильтра постепенно открываем для индексирования,
сначала категории потом теги.
- и постоянно, каждый день выпускаем новые статьи.

4. Когда причина в малом количестве посетителей.
- составляем семантическое ядро сайта и продвигаем статьи по НЧ
- оптимизируем статьи под ключевые слова, но не перестарайтесь. Все должно выглядить естественно.
- покупаем на оптимизированные статьи качественные ссылки с тематических сайтов.

Пожалуй на этом и остановимся. И начинаем терпеливо ждать когда пройдет апдейтов 2 или полгода. За этот срок наш сайт должен выйти из под фильтра.

Или сразу применяем КАРДИНАЛЬНЫЙ метод выхода
из под фильтра АГС-30

Этот метод применил я. Вернее если честно сказать, то отдельные его пункты. Я только не менял доменное имя и хостинг.

1. Меняем доменное имя и переезжаем на новый хостинг. Почему я говорю, что рекомендуется переезжать на новый хостинг, да потому, что бывают случаи, когда Яндекс применяет санкции к сайту из-за того, что рядом на хостинге размещается много некачественных сайтов. И Яша причисляет Ваш сайт к их числу.
2. Делаем так, что бы на время (приблизительно на два месяца) закрыть Ваш сайт полностью от индексации роботом Яндекса. А после восстанавливаем все обратно В файле robots.txt прописываем следующие строки:

User-agent: Yandex
Disallow: *

Этими строками мы полностью запрещаем индексацию сайта Яндексом.
3. Убираем продажные ссылки с сайта.
4. Заголовки статей все меняем
5. Уменьшаем в статьях количество ключевых слов.
6. Картинки в статьях все меняем.
7. Добавляем к уже существующим статьям новые комментарии.
8. Меняем структуру сайта или меняем тему.
9. Во всех статьях переписываем первые абзацы.
10. Покупаем качественные ссылки с тематических сайтов используя такие проверенные сервисы как РотаПост и GoGetLinks. Ни в коем случаи не покупаем ссылки с Sape.

Вот, пожалуй, на этом и буду заканчивать свое повествование по поводу вывода сайта из-под фильтра АГС-30. Надеюсь, что в чем-то я Вам помог понять и принять правильные решения по данному поводу. Прошу строго меня не судить, я не претендую на роль 100% правильных решений. Панацеи в таком вопросе не существует, все из нас могут только догадываться и предлагать свои решения этой проблемы.

Спасибо Вам друзья, что дочитали до конца мою статью. И если она Вам понравилась, то прошу Вас проголосовать за нее, так как я участвую в конкурсе. Буду Вам очень благодарен. С уважением Александр Катрич.

http://webmasters.ru/forum/f85/ags-i-fil%60try-yan...-sait-iz-pod-fil%60trov-25427/


Понравилось: 1 пользователю

Фильтры Яндекса. АГС

Среда, 21 Ноября 2012 г. 13:36 + в цитатник


Помните, как все просто было лет пять назад – у Яндекса был единственный вид санкций на все случаи – бан (исключение сайта из индекса). Причины, за которые давался бан, можно было пересчитать на пальцах: невидимый текст на страницах, дорвеи, линкопомойка и т.д. – все это относилось к методам «черной оптимизации». Никаких особых сложностей при выводе сайта из бана тоже не было – убираешь нарушения, пишешь в Яндекс, ждешь месяц, и сайт восстанавливается в выдаче.

Сегодня все намного сложнее – в Яндексе существует множество санкций и фильтров, которые могут накладываться как на сайт в целом, так и на отдельные страницы (или на пару запрос-документ) в частности. Не всегда очевидно, какой именно фильтр и за какие нарушения наложен на сайт – сейчас любой «перегиб палки» при использовании стандартных методов продвижения может быть интерпретирован как переспам и стать причиной пессимизации.

После Allintopconf.ru я обещала обновить статью о фильтрах Яндекса – сегодня выполняю обещание.

Многие оптимизаторы считают, что Яндекс придумал фильтры сугубо из корыстных соображений – для того, чтоб усложнить нам, сеошникам, жизнь и отправить всех в Директ. На самом деле задача фильтров – избавиться от нерелевантных результатов в выдаче, которые попадают туда только благодаря накрутке тех или иных факторов. Стремление Яндекса к качеству выдачи вполне объяснимо – чем лучше выдача, тем больше довольных пользователей поиска и, соответственно, доля рынка. А чем больше доля рынка, тем выше доход от того же Директа. Вспомним, какой была выдача до того, например, как не было ссылочных фильтров – любую страницу можно было за недели три вывести в топ по любому запросу только за счет ссылок, даже если эта страница не вообще не имела отношения к тематике запроса.
Виды фильтров Яндекса

В зависимости от того, как фильтры проявляются, их можно условно разделить на 4 типа:
- Предфильтры: дисконтируют значение каких-либо факторов еще до того, как рассчитана релевантность сайта (пример – обнуление весов ссылок из «ссылочного бума» или накрученных кликов). Действие предфильров можно заметить не сразу – обычно оно проявляется в «залипании» сайта на каких-то местах (сайт дошел до 2 страницы и не двигается дальше, несмотря на наращивание ссылочной массы, например). Большинство предфильтров связаны с накруткой внешних факторов.

- Постфильтры: обнуляют значение того или иного фактора уже после того, как рассчитана релевантность сайта. Не заметить этот тип фильтров сложно – именно они проявляются в резком падении позиций и трафика с Яндекса (это и есть та самая страшная «пессимизация», которой так боятся все оптимизаторы). Практически все фильтры за накрутку внутренних факторов можно отнести к постфильтрам.

– Фильтрация перед выдачей: это когда релевантность сайта рассчитана, но по каким-то причинам в выдачу он не допускается. Эти фильтры заметны прежде всего для топовых сайтов – сайт выпадает из выдачи по нескольким запросам (не просто понижается в позициях, а вообще полностью пропадает из поиска). Примеры –аффилирование, фильтр на взрослый контент, фильтр на одинаковые сниппеты.

- Бан: Редко, но до сих пор встречается полное исключение сайта из выдачи за грубые нарушения поисковой лицензии (фильтр за мобильные редиректы, дорвеи и т.п.).
Дальше рассмотрим более подробно фильтры, которые сейчас проявляются в Яндексе. По каждому фильтру я постаралась максимально подробно описать симптомы, причины и способы лечения. Чтоб облегчить навигацию по статье, я сделала сводную таблицу с краткими описаниями фильтров – чтоб перейти к детальному описанию, нужно нажать на название фильтра.
Проблема Симптомы Причины
Фильтры за контент
Фильтр за переоптимизацию Проседание сайта на 10-30 позиций, как следствие – снижение видимости сайта и потеря трафика Несоответствие страницы ключевым словам, под которые она оптимизирована + переоптимизация контента (текста, title, meta и т.д.).
АГС Выпадение из индекса всех страниц, кроме 1-10, как следствие – потеря трафика. Низкое качество сайта в целом, низкопробный контент.
Аффилирование Полное исчезновение сайта из выдаче по нескольким запросам, которые до этого были в топе или близко к нему. Продвижение сайтов одного владельца по одинаковым запросам
Фильтр на одинаковые сниппеты Сайт полностью исчезает из выдачи по некоторым запросам, но ищется в выдаче по ссылке «показать все без предпочтения» Сниппет страницы полностью дублирует сниппет другой страницы, которая находится в топе
Фильтр за взрослый контент Сайт полностью исчезает из выдачи по всем запросам, кроме «взрослых», что сопровождается резким снижением трафика. Наличие взрослого контента, ссылки на адалт-ресурсы, рекламу взрослых сайтов или продуктов для взрослых
Фильтр за агрессивную рекламу (попандеры, кликандреры) Сайт понижается в выдаче Наличие агрессивной рекламы
Фильтры за накрутку внешних факторов
Ссылочный бум Сайт «залипает» на определенных позициях. Покупка большого количества ссылок за короткий период
Фильтр за плохие ссылки Сайт резко понижается в выдаче по всем запросам Абсолютное преобладание ГС в ссылочной массе
Фильтр за накрутку ПФ В некоторых случаях – понижение позиций сайта по некоторым запросам Накрутка поведенческих факторов с целью повысит позиции сайта
Фильтры за накрутку внутренних факторов (за контент)

.
1.1.Фильтр за переоптимизацию сайта

Фильтр появился осенью 2011 года, его основная задача – избавить выдачу от страниц, оптимизированных под запросы, на которые они не дают полноценного ответа. Поскольку этот фильтр связан непосредственно с переспамом текстов, оптимизаторы часто путают его с давно ушедшим в прошлое портяночным фильтром, который накладывался сугубо за превышение плотности запроса в тексте и который можно было легко снять, уменьшив число вхождений.

Симптомы: резкое, но неглубокое проседание в выдаче в среднем на 10-30 позиций без смены релевантной страницы (иногда за это его еще называют «фильтр -10»). Проседают отдельные страницы целиком (фильтр запросонезависимый) или сайт в целом. По косвенным симптомам (проседание сайта в выдаче) не всегда можно точно определить, наложен фильтр или нет, поэтому при подозрении на фильтр лучше писать в поддержку Яндекса и дожидаться ответа. Если фильтр наложен – Платоны это подтверждают и в некоторых случаях даже дают намек на причины.

Причина: переоптимизация + нерелевантность. То есть, понижаются страницы, явно оптимизированные под запросы, ответа на которые на этих страницах на самом деле нет. Сама по себе переоптимизация не является причиной наложения санкций – если страница рябит от вхождений, но пользователи ее «любят», вероятность попадания под фильтр очень невысока (приоритет ПФ ). Пример тому – масса портянок в Топах по любым запросам, в том числе и коммерческим.

Контент, который является причиной наложения фильтра за переоптимизацию, бывает двух типов:
1) Абсолютно бессмысленный – много букв с КПД=0. Отличным примером в таком случае может быть эта страница (нажмите на картинку, чтоб увеличить):

Страница оптимизирована под запрос «натяжные потолки цены», и мало того, что ключевик вставлен в текст в виде спамовой конструкции, так еще и никой информации о ценах на этой странице нет вообще. Посетитель за 2-3 секунды поймет, что эта стораница – УГ и покинет ее, вернувшись в выдачу. Результат – ухудшение ПФ , пессимизация за переоптимизацию.

2) Нерелевантный запросам, под которые он оптимизирован.
Бывает такое, что контент вполне адекватный, но в тексте присутствуют запросы, на которые на самом деле ответа на странице нет. Именно в таких случаях причины наложения фильтра не всегда очевидны – переспама в прямом смысле этого слова на странице не наблюдается, но, тем не менее, страница пессимизирована.
Пример: с целью поднять страницу по запросу «фильтры для воды», оптимизатор вставляет в текст запрос, взятый из подсказок Яндекса – «фильтры для воды отзывы», хоть на самом никаких отзывов на странице и в помине нет. Помните, после введения «Спектра» было модно пихать в текст словосочетания из подсказок Яндекса? Многие страницы с такими подсказками в итоге стали жертвой фильтра за переоптимизацию (нажмите на картинку, чтоб увеличить):

Пользователи, которые переходят на сайт по запросу «фильтры для вод отзывы», чувствуют себя обманутыми и возвращаются в выдачу. Результат: ухудшение ПФ страницы и пессимизация.
Как снять фильтр за переоптимизацию
Шаг первый – чистим сайт от переоптимизации. Проверяем все страницы и убираем:
– спамовые конструкции ключевиков;
- отдельные выделения ключей стронгами в середине текстов (где кей выделен явно не для повышения удобства текста);
– лишние h1-h6 (я уже давно использую только h1 не более 1 раза на странице, но для информационных страниц/ресурсов можно делать исключения);
- перечисления ключевиков (списки) в текстах, title,description, и прочих тэгах;
– автоперелинковку (если таковая имеется), а также ссылки из текстов внутренних страниц на главную.
Шаг второй – анализируем соответствие контента запросам. Подумайте, действительно ли сайт дает адекватный ответ на все запросы, по которым он продвигается? Можно с помощью ГА и Я.Метрики отсеять популярные запросы с большим количеством отказов и понять, что не так с посадочными страницами. Запросы, на которые страница не дает ответа, нужно либо убрать, либо дополнить страницу (сайт) нужной информацией.
После «чистки» сайта и пересмотра релевантности страниц советую писать в поддержку Яндекса. В некоторых случаях санкции снимаются сразу, в некоторых приходится ждать месяц и проходить повторный пересмотр.
1.2. АГС

Задача – исключить из выдачи сайты низкого качества (говносайты). Собственно, отсюда и название АГС – АнтиГовноСайт.

Симптомы: из индекса выпадают страницы, пока не остается от 1 до 10, при этом оставшиеся страницы не пессимизируются, не понижаются в выдаче.

Группа риска
Обычно сайты, попавшие под АГС, соответствуют как минимум четырем признакам из этого списка:
– молодой домен;
– бесплатный движок (WP, Joomla, Drupal, DLE…);
– бесплатный хостинг;
– большое количество внутренних дублей страниц;
– низкопробный контент (неуникальный, автосгенерированный, дешевый рерайт и т.д.);
– злоупотребление внутренней перелинковкой;
– отсутствие посещаемости;
– наличие внешних ссылок на разных страницах сайта;
– отсутствие или низкое качество ссылочной массы на домен;
– наличие низкопробной рекламы (тизеры, попандеры, кликандеры и т.д.);
– наличие немодерируемых разделов (форум, блог, доска объявлений).

Например, если сайт молодой, работает на бесплатном движке, его контент неуникален и посещаемость отсутствует, его шансы попасть под АГС сильно возрастают.

Как избавиться от АГС.
В большинстве случаев быстро выйти из АГС не получается. Если Вам надо быстро – то лучше просто перенести сайт на новый домен, но если вы просто все перекинете на новый домен без изменений, то через время он тоже загремит под АГС. Если же сам домен для вас имеет ценность или вы хотите так избавиться от АГС, чтоб больше на эти грабли не наступать, то лучше задуматься над полной переделкой сайта. Что именно и как необходимо переделывать – нужно смотреть по ситуации.

Существует два распространенных мифа, связанных с АГС:

1) Под этот фильтр якобы попадают исключительно созданные для продажи ссылок/рекламы сайты. На самом деле, жертвой АГС часто становятся и сделанные «на коленке» сайты без какой-либо претензии на монетизацию. То есть сайт как бы сделан для людей, но он настолько низкопробный в плане контента, дизайна, структуры, что никакие люди, кроме самих владельцев, не смогут извлечь от него какую-либо пользу.

2) Лучшая «страховка» от АГС – уникальный тематичный контент. На самом деле, уникальность и «тематичность» контента не гарантируют его актуальность для пользователей, и поэтому не являются основными признаками качества сайта. Из моей практики консалтинга, каждый второй сайт, попавший под АГС, состоит именно из самих только уникальных статей, написанных копирайтером за деньги. Но эти статьи никому не нужны, никто их не читает – соответственно, они представляют собой бесполезную текстовую массу. (Подробнее о том, чем отличается СДЛ от ГС.
1.3. Аффилирование

Задача: исключить из выдачи сайты одного владельца, которые продвигаются по одинаковым запросам (то есть избавить выдачу от предложений одних и тех же компаний, сделать ее как можно более разнообразной). Если Яндекс выясняет, что в выдаче по одним и тем же запросам присутствуют несколько сайтов одной компании, он фильтрует их, оставляя по каждому запросу только один сайт – наиболее релевантный с его точки зрения

Симптомы: сайт резко исчезает из выдачи по всем или нескольким запросам, которые находятся в топе или близко к топу. При этом в топ выходит его «брат», принадлежащий той же компании. . По одним запросам в выдаче может находиться один сайт компании, по другим – другой. Время от времени по некоторым запросам может происходить взаимозамена, но одновременно находиться в выдаче аффилированные сайты не будут.

Проверка сайтов на аффилирование.
Если у сайта есть «братья по владельцу» и Вы знаете их адреса, можно проверить, на самом деле наложен ли на сайт фильтр аффилирования. Для этого в поисковую строку Яндекса нужно ввести такой запрос:

“ключевая фраза” domain1.ru | domain2.ru

Если в выдаче показывается только один из сайтов – аффилирование есть. Тот сайт, который показывается в выдаче, является более релевантным указанному запросу.

Например, если ввести в поиск запрос “знакомства” (24lux.ru | loveplanet.ru), в выдаче будет только сайт loveplanet.ru. Это означает, что сайты зааффилированы, и более релевантным по запросу «знакомства» является loveplanet.ru (нажмите на картинку, чтоб увеличить ее):

Если сайты незааффилированы, в выдаче будут показываться оба. Например, по запросу “знакомства” (dating.ru | loveplanet.ru) в выдаче показываются оба сайта(кликаем на картинку и смотрим):

Если ввести в поисковую строку зааффилировнные сайты без запроса (просто так – domain1.ru | domain2.ru), то получим сайт, который считается доминирующим. Например, по запросу 24lux.ru | loveplanet.ru в выдаче показывается только сайт loveplanet.ru. В большинстве случаев второстепенный сайт может «прорваться» в выдачу только по тем запросам, по которым не продвигается доминирующий. Кстати, этот пример отлично иллюстрирует, что под аффилирование попадают не только сайты одного владельца, но и разные партнерки, созданные на базе чужого контента.

Бывает, что оптимизатор, который продвигает сайт, даже не подозревает о существовании «братьев по владельцу» (компания наклепала 10 сайтов и раздала на продвижение разным SEO-студиям). В таком случае проверить аффилирование с помощью указанных выше комбинаций запросов не получится, так как мы не знаем адрес другого сайта. Тогда можно пользоваться проверкой по базе аффилиатов на tools.promosite.ru . Недостаток базы – собрана она еще в 2010 году (тогда у Яндекса была обнаружена некая дыра в XML, которую после огласки поспешно закрыли), и если Ваш сайт появился позже, то нужных данных вы там просто не найдете.

Признаки, по которым Яндекс определят аффилиатов:
1) прямые:
- одинаковая контактная информация (телефоны, адреса, карта);
- одинаковые данные владельца во whois;
- одинаковый хостинг (сайты находятся на одном IP или в одной подсети);
- один и тот же регистратор доменов, одинаковое время регистрации.

2) косвенные:
– похожий дизайн и структура;
– одинаковая CMS;
– пересечение ассортимента товаров /услуг (полное или очень высокое);
– похожий принцип подачи информации (описания товаров/услуг) и т.д.

Принято считать, что поводом для наложения фильтра афиллиатов для Яндекса являются прямые признаки принадлежности сайтов одному владельцу – одинаковые контакты, одинаковые данные whois, один хостинг, похожий дизайн. Но на самом деле это уже давно не обязательно – фильтр может быть наложен и по косвенным признакам. Если у сайтов в какой-то определенной мере пересекается ассортимент, а принцип подачи информации и описания похожи, то уже есть большой риск наложения фильтра.

Как выйти из-под аффилирования
Если у сайтов, попавших под этот фильтр, действительно один владелец, избавляться от аффилирования будет сложно. Если любой ценой нужно сохранить домен, можно попробовать жесткие меры: сменить владельца одного из доменов (лучше даже разнести домены к разным регистраторам, имена владельцев – открыть), максимально снизить пересечение ассортимента товаров/услуг (либо перепозиционировать один из сайтов на другую аудиторию), сменить внешний вид, структуру, контент сайта – то есть сделать сайты максимально непохожими друг на друга как в плане внешнего вида, так и в плане позиционирования. Только после этого можно пробовать писать в Яндекс от имени нового владельца домена с просьбой снять фильтр, но все равно нет гарантий, что это сработает. Поэтому нужно либо отказаться от продвижения нескольких сайтов одной компании по одинаковым запросам (если сайты не ваши – то убедить владельца, что стоит отказаться), либо регистрировать новый домен и начинать все сначала с учетом прошлых ошибок . Повторюсь, что если сайты одного владельца будут продвигаться по разным запросам, афиллирование им не угрожает.

Если сайт попал под аффилирование по ошибке (у владельца компании нет других сайтов и сайт не является партнеркой), пишите в суппорт Яндекса. Если сможете привести весомые аргументы в свою пользу, аффилирование будет снято вручную.
1.4. Фильтр на одинаковые сниппеты

Задача: не допустить в топ страницы с одинаковыми сниппетами.

Симптом: сайт исчезает из топа по запросу (или нескольким запросам), но при этом в выдаче по ссылке “Показать все сайты без предпочтения” показывается на прежнем месте (чтоб получить такую выдачу, нужно к URL, формирующему запрос, добавить в конце переменную rd=0).

Пример: сайт, который находится с выдачей с “rd=0” на 8 позиции, отсутствует в обычной выдаче – это потому, что у него такой же сниппет, как у сайта 4 месте:

Под этот фильтр часто попадают страницы товарных позиций интернет-магазинов, так как описания товаров они «взаимствуют» из одних и тех же источников.

Лечение: нужно просто найти в выдаче сайт, у которого сниппет совпадает с вашим, и поменять свой сниппет так, что б они отличались.
1.5. Фильтр за взрослый контент

Задача: не допустить в выдачу по обычным запросам сайты, которые содержат контент для взрослых.

Симптомы: сайт исчезает из выдачи по всем запросам, кроме «взрослых».

Причины: сайт содержит контент, имеющий отношение к «взрослому» – это могут быть отдельные страницы с порно, так и наличие рекламы порноресурсов или даже просто ссылок на них.

Лечение: убрать любые все элементы, которые имеют отношение к адалту (страницы, рекламу, ссылки и т.д.), написать в суппорт, дождаться ответа. Если все ОК – через несколько апдейтов сайт восстановится в выдаче.
2. Ссылочные фильтры
2.1. Временной фильтр на коммерческие ссылки

Задача – снизить влияние SEO-ссылок на ранжирование сайта.

Проявление: временнАя задержка на учет покупных ссылок (это предфильтр, отнюдь не санкция). Если Яндекс идентифицировал ссылку как коммерческую, она начет передавать вес акцептору только через какое-то время.

Когда этот фильтр только начал работать, оптимизаторы забили тревогу и начали высказывать разные предположения вплоть до того, что Яндекс отменил ссылочное ранжирование. На самом деле Яндекс научился делить ссылки на платные (коммерческие) и естественные, и по-разному учитывать их для ранжирования сайта (если еще не знаете, как Яндекс определяет коммерческие ссылки, вам сюда).
Во-первых, коммерческие ссылки стали хуже работать для некоммерческих запросов, во-вторых, стала накладываться временная задержка на учет таких ссылок в целом, приблизительно на 4-6 месяцев. Многие оптимизаторы нашли способы обойти этот фильтр, один из них, например – использование безанкорных ссылок. Но в целом хорошие коммерческие ссылки хорошо работают, просто нужно время, терпение и умение отличать хорошую ссылку от плохой .
2.2. «Ссылочный бум»

Задача: обнулять влияние ссылок, купленных в большом количестве за короткий промежуток времени.

Проявление: в большинстве случаев «ссылочный бум» действует как предфильтр – ссылки, которые имеют отношение к ссылочному буму, просто не учитываются (вообще не действуют ни в плюс, ни в минус). Это часто проявляется в «залипании» сайта на определенных позициях – ссылки докупаются и докупаются, а позиции не меняются.

Но в этой ситуации бывают исключения – если сайт содержит явные признаки внутреннего спама, то «ссылочный бум» (внешний спам) может стать как бы катализатором для наложения санкций (сигнализируя о том, что с большой вероятностью сайт – ГС). В таком случае проявлением фильтра будет понижение видимости сайта (позиций/трафика). Если же сайт трастовый, посещаемый, качественный – «ссылочный бум» на понижение не сработает, что вполне логично – в противном случае это был бы отличный способ валить конкурентов, и началась бы очередная ссылочная война.

Лечение: нужно действовать в зависимости от ситуации. В большинстве случаев такие ссылки лучше снимать постепенно (а то мигание ссылочной массы может ухудшить ситуацию и продлить мораторий на учет новых ссылок). Лучше всего проверить ссылки на качество так или так и от откровенно унылых доноров отказаться сразу, а потом постепенно снимать остальное, наблюдая за динамикой изменения позиций. Как только динамика оживится (позиции после ссылочного апдейта поменяются в плюс или в минус) можно возобновить работу над ссылочной массой, не повторяя прежних ошибок.
2.3. Пессимизация сайта за «плохие ссылки»

Задача: избавить выдачу от низкопробных сайтов, которые пытаются продвинуться за счет ссылок.

Симптомы: Фильтр обнуляет действие всей ссылочной массы, в результате чего сайт резко проседает по всем ВЧ/СЧ (проседания по НЧ не так заметны, потому что многие НЧ могут высоко ранжироваться только за счет внутренних факторов).

Причины. По нашим наблюдениям, фильтр действует при обязательном наличии двух условий: абсолютное преобладание некачественных доноров в ссылках и наличие признаков спамности во внутренних факторах сайта. Таким образом, валить сайты конкурентов с помощью этого фильтра тоже невозможно, если у них качественный контент и присутствуют хорошие ссылки. Причиной полного обнуления ссылочной массы может быть также наличие на сайте линкопомойки.

Что может быть признаком плохой ссылочной массы для Яндекса? Скорее всего, такой вывод не делается на основании какого-то одного показателя – как обычно, работает группа показателей.

Показателями плохой ссылочной массы для поисковой системы могут быть:
– преобладание в ссылочной массе молодых доменов и ГС (см. показатели ГС в пункте про АГС);
– полное отсутствие естественных ссылок;
– сосредоточение ссылочной массы на 1-2 страницах (обычно на морде);
– «мигание» ссылок;
– «скачки» при увеличение ссылочной массы;
– большой процент доноров сомнительного содержания (порно, варезники, немодерируемые форумы/блоги и т.д.).

Например, если большинство ссылочных доноров – ГС, среди которых часто встречаются варезники и порноресурсы и при этом 90% ссылок ведут на морду, это уже явно указывает на низкое качество ссылочной массы (подробнее о факторах, влияющих на работоспособность ссылок) .

Лечение. В отличие от ссылочного бума, при пессимизации за плохие ссылки рекомендую избавляться от всех ссылок сразу (подробнее про удаление плохих ссылок), а потом постепенно работать над получением новых ссылок, в том числе и естественных.
3. Фильтр за накрутку поведенческих факторов

Задача: нивелировать влияние неестественных кликов .

На данный момент в большинстве случаев действует как пред-фильтр – переходы, идентифицированные Яндексом как неествественные, просто не учитываются при ранжировании, а сам сайт не пессимизируется. В прошлом были случаи наложения санкций за накрутку ПФ – я помню две волны: в мае и в середине лета 2011 года, когда были понижены в выдаче сайты известных SEO-контор и их клиентов, после чего Яндекс опубликовал свое официальное отношение к накруткам ПФ.

Симптомы: поскольку сейчас антифрод действует как пред-фильтр, его можно даже не заметить – «накрученные» клики не сработают ни в плюс, ни в минус. Хотя в случае, когда у сайта есть явные признаки внутреннего переспама, накрутка ПФ может сработать как катализатор для наложения санкции (работает по тому же принципу, что и «ссылочный бум»). В такой ситуации явным симптомом будет понижение сайта в выдаче по запросам, которые «накручивались».

Пару слов о том, как работает антифрод .
Фильтруется не только искусственная эмуляция – то есть действия роботов, которых легко вычислить, но и ручная накрутка, которую активно рекламируют некоторые системы покупки кликов. Например, если на страницу резко увеличилось число переходов, но при этом у нее не поменялся ни контент, ни сниппет ни позиции, то есть не произошло ничего такого, что могло бы вызвать ествественное повышение CTR – значит, есть вероятность накрутки. Или если посещаемость страницы выросла за счет пользователей, поведение которых при более глубоком рассмотрении оказывается неестественным. Например – эти пользователи 90% времени только и делают, что ищут в Яндексе абсолютно не связанные друг с другом коммерческие запросы, листают выдачу, задерживаясь каждый раз только на 1 сайте. Все это поисковые системы давно знают, понимают и фильтруют.
Заключение. Что важнее – пользователи или поисковики?

Очевидно, что Яндекс предъявляет высокие требования к качеству сайтов и при каждом удобном случае декларируют свою официальную позицию – развивайте свой сайт, ориентируйтесь на пользователей, и если они высоко оценят сайт, то и поисковик не обойдет его своим вниманием. Но если строго следовать этой рекомендации и ориентироваться сугубо на удобство сайта, забыв о SEO, то тех самых пользователей сайт может ждать очень долго. Получается, что с одной стороны для ускорения эффекта от сайта без SEO не обойтись, но с другой – если перегнуть палку, можно напороться на фильтры. Поэтому нужно искать «золотую середину» – оптимизировать сайт, но так, чтоб оптимизация не мешала, а помогала пользователям ориентироваться на сайте. Золотое правило – перед каждым действием задавайте себе вопрос , улучшит ли это действие восприятие сайта пользователями? Если ответ отрицательный – ищите альтернативу.

С ув., Елена Камская.
http://optimizatorsha.ru/yandex/filtry/

С чего начинать правку активной рекламной кампании

Понедельник, 09 Июля 2012 г. 11:19 + в цитатник

КАК ОЦЕНИТЬ ССЫЛОЧНЫЙ ПОТЕНЦИАЛ НИШИ

Понедельник, 25 Июня 2012 г. 12:50 + в цитатник
В начале каждого нового проекта по продвижению бизнеса в Интернете встает вопрос: как именно продвигаться? Учитывая минимальный временной порог вхождения в поисковые системы, обычно занимающий от двух месяцев, необходимо ли покупать рекламу, или же достаточно начать публикацию ярких, интересных материалов, как это часто рекомендуется специалистами поисковых систем?

По мнению Джона Купера, американского специалиста по оптимизации, существует два типа людей, занимающихся набором обратной ссылочной массы: те, кто предпочитает естественный набор обратных ссылок, и те, кто считает, что это всё несерьёзно. Сам Джон находится по обе стороны баррикады, поскольку имеет успешный опыт продвижения сайтов разными способами, включая сайты без единой честной ссылки.

Такой положение вещей он объясняет очень просто: возможность и скорость набора естественных ссылок на контент зависит от ниши.

Многим оптимизаторам при виде перечней из тактик накопления обратных ссылок кажется, что все эти тактики заведомо применимы к их сайтам. И если тот или иной опробованный метод себя не оправдывает, он часто отметается как принципиально непригодный.

Поэтому перед тем, как перейти к сути статьи, Джон предлагает запомнить, что каждый отдельно взятый случай в каждой отдельной индустрии имеет свои характерные особенности. То, что работает в одной нише, может быть совершенно неприменимо к другой.

Анализ ниши

Поскольку возможность некоммерческого набора обратных ссылок целиком и полностью зависит от ниши, в которой вы работаете, необходимо выяснить частоту, с которой сайты по вашей теме естественным образом линкуются на другие сайты.

Вот несколько индикаторов высокой частоты естественной линковки в нише:

На регулярной основе публикуется много качественного контента. Этот критерий очевиден, поскольку чем больше качественного контента, тем меньше у веб-мастеров поводов жадничать и тем больше возможность получить обратную ссылку.

Много ли нишевых блогов и форумов. Это означает, что в индустрии ведутся активные дискуссии. Чем больше люди общаются на эту тему, тем выше вероятность того, что на ваш контент будут ссылаться.

Является ли соотношение внешних ссылок к внутренним в блогах высоким. В некоторых индустриях много хорошего контента, но веб-мастеры и блоггеры ставят ссылки только на себя. Против этого, однако, есть средство: предлагайте им гостевые постинги у себя и добивайтесь этого любой ценой. Раз они ссылаются только на свои материалы, то пусть эти материалы окажутся у вас по их же собственному желанию.

Высока ли социальная активность. Хотя соцмедиа не коррелируют с обратными ссылками напрямую, это ещё один прекрасный индикатор того, что в вашей индустрии ведутся активные дискуссии.

Есть ли в нише общепризнанные идейные лидеры. Критерий общепризнанности здесь важен, поскольку свидетельствует о наличии общественного консенсуса по этому вопросу, что, в свою очередь, говорит о развитости ниши. Здесь также нет прямой причинно-следственной связи, но если кто-то успел зарекомендовать себя идейным лидером, значит и у вас есть такая возможность.

Есть ли в индустрии выделяющиеся авторы публикаций. Наблюдаете ли вы одни и те же имена в числе авторов публикаций, или же весь контент безлик, поскольку выкладывается без указания авторства? Чем больше ниша выстроена вокруг личностей, тем меньше, по мнению Джона, вероятность жадности специалистов по продвижению.

Развита ли в нише культура обмена опытом. Нравится ли участникам писать о чём-либо и обсуждать написанное другими? Существуют ли нишевые конференции, где специалисты могут контактировать вживую и демонстрировать свою работу? Если люди с интересом рассуждают о контексте, скорее всего, они будут склонны сами ссылаться на интересные им публикации.

Является ли низким порог вхождения для понимания контента. Необходимо ли быть опытным специалистом, чтобы понимать, о чём вы пишете, или же достаточно общих познаний? Кстати, если вы активно используете профессиональный жаргон, убедитесь в том, что помогаете новичкам понять его. Для этого можно ссылаться на пояснящие тот или иной термин статьи, делать паузу и объяснять термин или заключать пояснение в скобки. Можно даже создать глоссарий и включить его в навигацию.

Как много ссылочного спама. Спам есть во всех нишах, но как много сайтов пользуется ссылочным спамом для обеспечения высоких позиций в поисковой выдаче? 5 из 10 сайтов — намного лучше, чем 9 из 10. Это говорит о том, что есть возможность работать строго по правилам поисковиков.

Разрыв между контентом и ссылками

Джон также обращает внимание на бытующее среди некоторых оптимизаторов недопонимание разрыва между контентом и ссылками. По его мнению естественные ссылки не появляются исключительно от упорного труда по созданию контента.

Рано или поздно нажатие кнопки публикации статьи действительно можно приравнять к получению обратных ссылок, но это происходит только после того, как масса усилий вложена в работу помимо создания контента. Под этим Джон Купер подразумевает:

Идентификацию влиятельных людей в отрасли, следование за ними и произведение впечатления на них. Это значит, что вам придётся найти людей, которые должны стать евангелистами вашего бренда, а затем добиться этого.
Понимание, что естественная ссылка является следствием доверия к вам, обусловленного признанием качественности вашего контента. На создание такого доверия уходит огромное количество времени, равно как и, впрочем, на создание аудитории.
Необходимость сделать что-то такое, что выделит вас среди конкурентов, поскольку никто не сделает для вас что-то без малейшей на то причины.
В конечном счёте, всё сводится к пониманию того, что за ссылками стоят реальные люди, интерес которых к контенту надо удовлетворять.

Выводы

Возможно, проверка по приведённому выше списку покажет, что в вашей нише получать естественные ссылки нереально. В этом случае Джон советует просто забыть о списке и двигаться дальше. При этом он делает ремарку, что если это не сработало для вас, это не значит, что у кого-то другого в иной ситуации это тоже не получится.

Если же вы проанализировали нишу и поняли, что возможность получать естественные ссылки есть, не забывайте тратить одинаковое количество времени на работу и с контентом, и с аудиторией.

Материал основан на публикации "The Disconnect Between Content & Natural Links", опубликованной в блоге Point Blank SEO.

http://subscribe.ru/archive/inet.search.seo/201206/25115243.html/

Drupal 9 Проблема при русификации при установке

Среда, 20 Июня 2012 г. 12:28 + в цитатник
Запустил установку Drupal 7;
В меню выбора языка, выбрал "Русский" (drupal-7.0.ru.po) и .... ахх, блин!

Стадия "Начало импорта", не сдвигается и в конечном счете:

An AJAX HTTP error occurred. HTTP Result Code: 200 Debugging information follows. Path: http://localhost/install.php?profile=standard&locale=ru&id=2&op=do StatusText: OK ResponseText: Fatal error: Maximum execution time of 30 seconds exceeded in C:\Web\mysite.ru\www\includes\database\database.inc on line 2039 Fatal error: Maximum execution time of 30 seconds exceeded in C:\Web\mysite.ru\www\includes\bootstrap.inc on line 3069 Fatal error: Maximum execution time of 30 seconds exceeded in C:\Web\mysite.ru\www\includes\session.inc on line 156 Fatal error: Maximum execution time of 30 seconds exceeded in C:\Web\mysite.ru\www\includes\session.inc on line 49


php.ini - найти и открыть.
В файле найти строку max_execution_time = 30. Изменить 30 на 1200. Сохранить. Перезапустить сервер.

Drupal 8 Русификация интерфейса в Drupal

Вторник, 19 Июня 2012 г. 17:15 + в цитатник
Версия Drupal:
7.x

Тема русского языка в Drupal 7 уже поднималась в этом блоге в статье про установку. Но как оказалось у посетителей блога остались вопросы по этой теме. Поэтому еще раз остановимся на ней.

Итак, русифицировать интерфейс можно как при установке, так и в любое время после создания сайта.
Установка русского языка при инсталляции Друпал.

Рассмотрим вариант для текущей версии Drupal 7.9. Скачиваем файл русификации drupal-7.9.ru.po с официального сайта Друпала. После загрузки файлов движка по ftp на сервер, в директорию корень_друпала/profiles/minimal/translations или корень_друпала/profiles/standart/translations (в зависимости от типа установки) заливаем файл переводов. Запускаем инсталляцию, в процессе выбираем русский язык и по завершении установки имеем Друпал с русским интерфейсом.
Установка русского языка после инсталяции Drupal

Точно так же как в прошлом варианте надо скачать файл переводов. Для локализации необходимо включить модуль ядра Locale. Сделать это можно по адресу admin/modules.

На странице admin/config/regional/translate/import выбираем в поле \"Import into\" русский язык, а так же загружаем скаченный ранее файл с переводом. Жмем Импорт и готово, язык установлен.

Выбрать активный язык, а так же назначить язык по умолчанию можно по адресу admin/config/regional/language. Вот еще страницы в админке друпала полезные для перевода:

admin/config/regional/translate - показывает активные языки, а так же количество переведённых строк.
admin/config/regional/translate/translate - можно вручную перевести необходимые вам строки.



Вот и все, что касается русификации интерфейса Drupal 7. Остается лишь добавить что на текущий момент перевод интерфейса на русский язык для ядра выполнен на хорошем уровне. Так же многие популярные модули неплохо переведены. С более редкими модулями возможно возникнут трудности, но всегда можно самостоятельно дописать нужные вам строки.

http://gamover.net/blog/rusifikaciya-interfeysa-v-drupal7x.html

Drupal 7 - Пароль к базе MySql

Среда, 06 Июня 2012 г. 17:03 + в цитатник
Пароль к базе MySql находится в файле sites\default\settings.php

Drupal - 6 sitemap

Понедельник, 21 Мая 2012 г. 15:40 + в цитатник
Установка

Всё стандартно:

Скачиваем последнюю стабильную версию модуля xmlsitemap для вашей версии Drupal.
Распаковываем в sites/all/modules
Включаем необходимые модули на странице управления модулями:
XML sitemap — генерирует файл sitemap.xml
XML sitemap engines — уведомляет поисковые системе о вашем sitemap файле
XML sitemap node — добавляет в sitemap информацию о нодах
XML sitemap taxonomy — добавляет в sitemap информацию о терминах таксономии
XML sitemap user — добавляет в sitemap информацию о пользователях

Настройка

Настройки модуля находятся по адресу admin/settings/xmlsitemap.
Раздел Sitemap

Add all the links to the default language sitemap — добавляет к адресам языковой префикс, используется только на многоязычных сайтах.

Cron limit — количество ссылок, которые будут обновлены (дата последней модификации, приоритет и т.д.) за один запуск крона. По умолчанию 100.

Cache directory — директория где будет храниться файл sitemap. По умолчанию sites/default/files/xmlsitemap

Use stylesheet — Использовать стили при просмотре файла sitemap.xml. По умолчанию отключено, лучше включить.

Front page change frequency — Средняя частота изменения главной страницы, т.е как часто на главную добавляются ноды, создаются комментарии (если они выводятся в блоке), и т.д. По умолчанию Hourly — каждый час.

Front page priority — Приоритет главной страницы. Так как количество страниц, которые за один проход скачает и проиндексирует поисковик, ограничено, приоритет помогает ему определить порядок индексирования. По умолчанию 1.

Promotion priority adjustment — Дополнительный приоритет для нод на главной странице. Это число будет добавлено к приоритету нод (по умолчанию 0.5) который находятся на главной странице. По умолчанию 0.3.

Comment ratio priority adjustment — Дополнительный приоритет для ноды с максимальным количеством комментариев. Для остальных нод с комментариями, приоритет будет добавлен пропорционально их числу. Логика такая, что если у ноды есть комментарии, то она более интересна читателям чем ноды без них. По умолчанию 0.2.
Раздел Search engines

Submit the sitemap when content changes — Уведомлять поисковики об изменении файла sitemap.

Frequency of sitemap submission — Частота, с которой поисковикам будет отсылаться новый файл sitemap.

Ниже, на странице, перечислены поисковики в которые нужно отправлять уведомления.
Раздел Tools

Delete the sitemap cache files — удалить закэшированную версию sitemap.xml

Flag the sitemap as requiring update — установить отметку что файл sitemap требует обновления.

Submit the sitemap to all the active search engines — Отослать ссылку на файл sitemap всем активным поисковикам, отмеченных в разделе Search engines.

Submit the sitemap to xxx — Уведомить поисковик xxx.
Форма создания/редактирования ноды

Для каждой ноды, в блоке XML sitemap, можно выставить свой уникальный приоритет:

-------------------------------------------
Еще один вопрос: как убрать " Generated by the Drupal XML sitemap module ? "

в файле sites\all\modules\xmlsitemap\xsl\xmlsitemap.xsl
Начиная с 57 строки надо закомментировать блок "footer"



--------------------------------------------
Здраствуйте. Поставил модуль на drupal7. при обновлении карты выдает только ссылку на главную страницу.может это быть изза того, что тестирую на денвере?крон обновлял

включить в sitemap каждую ноду (в настройках sitemap

---------------------------------------------
Установил модуль, все нормально, только в Статусе красное поле

XML sitemap user Anonymous access to user profiles
In order to list user profile links in the sitemap, the anonymous user must have the View user profiles permission.

Нужно перейти адресу
/admin/people/permissions#module-xmlsitemap
Вы попадете на страницу администрирования доступа модуля xmlsitemap (см хвост урл)
и установить НЕ „Administer XML sitemap settings.” для Анонима, а
в разделе USER установить View User Profile (Просмотр профилей) для Анонима



http://xandeadx.ru/blog/drupal/40

Защита от DDoS-атак

Пятница, 27 Апреля 2012 г. 12:56 + в цитатник
Нередко в СМИ встречаются сообщения о том, что тот или иной сайт подвергся DDoS-атаке и временно перестал функционировать. DDoS-атака (Distributed Denial of Service) – это ситуация, когда злоумышленники генерируют столько запросов к серверу, что он не в состоянии обработать такое количество. Конечно, один компьютер не способен сделать столько обращений, чтобы даже относительно слабый сервер не смог с ними справиться. Для атаки используется множество компьютеров (зараженный вирусом «ботнет» – компьютеры, находящиеся под контролем хакера без ведома их владельцев), которые одновременно и постоянно посылают запросы на сервер, что влечет за собой его перегрузку и отказ.

Иногда некоторое подобие DDoS может получиться и без хакеров-киберзлодеев. Например, когда на сверхпопулярном сайте размещается ссылка на сайт на слабом виртуальном хостинге – и вследствие ограниченных технических возможностей сервер не выдерживает перегрузки и становится недоступен. Хостеры даже могут временно отключать сайты на виртуальных серверах, если те внезапно становятся мишенью десятков тысяч запросов. Это необходимо понимать – для сайтов с серьезной посещаемостью и высокими пиковыми нагрузками виртуальный хостинг за 200 рублей в месяц не подойдет.

DDoS-атаки могут быть организованы по разным причинам: из-за конкуренции, чтобы «положить» чужой сайт и забрать часть его целевой аудитории, с целью получения выкупа за разблокировку атакованного ресурса и даже для развлечения. Также часто причиной нападения злоумышленников становится нестабильная политическая ситуация в стране – противоборствующие группировки могут осуществлять атаки на сообщества конкурентов. Если ваш сайт посвящен бисероплетению или какому-то другому мирному занятию и имеет относительно небольшую аудиторию, то опасаться DDoS-атаки не стоит, для этого просто не будет причин – если у вас нет личного врага, который может «заказать» ваш сайт. Кроме всего прочего осуществить такую атаку довольно дорого, ведь в зомби-сетях (ботнетах) должны быть задействованы тысячи зараженных компьютеров, это дело для серьезных хакеров.

Уровни защиты Чтобы защититься от DDoS, нужно выстроить довольно серьезный комплекс мер против таких вторжений – одного барьера будет недостаточно, особенно если ваш сайт реально подвергается атакам. Можно выделить несколько уровней защиты:
доступ к серверу;
ПО сервера;
сеть;
провайдер;
специализированное оборудование;
администрация сервера.
Защита на уровне доступа к серверу Этот тип защиты по мнению многих вебмастеров и специалистов в данной сфере довольно надежен и эффективен, что подтверждается практикой. Сервер должен обязательно иметь удаленный ребут, то есть возможность перезагрузки. При этом консоль должна выводится по протоколу SSH на другой IP-адрес, чтобы была возможность им воспользоваться при перегруженном сервере. Эти меры позволяют оперативно реагировать, перезагружая сервер в начальной фазе DDoS-атаки. Вывод консоли дает возможность отключения протокола SSH на сервере, так как он тоже часто является мишенью DDoS-атаки.

Защита на уровне программного обеспечения сервера Сервер должен быть тщательно проверен на предмет безопасности. Все ПО сервера должно быть обновлено, необходимо поставить все значимые патчи. То есть все известные «дыры» в защите должны быть тщательно закрыты. Для этого можно составить список всего ПО, по которому можно будет удобно следить за обновлениями и патчами.

Защита на уровне сети Еще на стадии старта постарайтесь заблокировать абсолютно все, что может дать хоть какую-нибудь информацию для организатора DDoS-атаки. В список для блокировки и скрытия входят трейс и пинг. Очень полезным действием является включение механизма NAT (Network Address Translation), то есть преобразования сетевых адресов. Еще один важный момент – маскировка IP-адреса, эта мера эффективно помогает защититься от злоумышленников, усложняя их работу. Для скрытия IP существует довольно много способов, и они являются популярной мерой для защиты от сетевых атак.

Защита на уровне провайдера На этом уровне меры защиты заключаются в анализе пакетов получаемых данных и блокировке IP-адресов. Как это работает? Как правило запросы осуществляются с разных машин, но их объединяет очень похожий тип трафика. Пакеты данных подвергаются анализу, в ходе которого выявляются похожие. Вручную, да еще в реальном времени отслеживать трафик, проверяя логи, практически нереально. Такую работу могут осуществлять специальные программы, например Tcpdstats или Tcptrace. С их помощью легко определить тип преобладающего трафика и вовремя принять меры.

Чтобы заблокировать IP-адреса атакующих машин, надо сначала вычислить их в общем трафике. Это можно сделать на основе анализа частоты обращений к серверу. Обычный пользователь может делать до нескольких обращений в секунду, но от него будут исходить запросы к нескольким URL (URL самой страницы, картинок, java-скриптов и прочие), а атакующая машина как правило несколько раз в секунду обращается к одному и тому же URL-адресу. По этому принципу можно вычислить атакующие IP-адреса и занести их в список адресов, от которых не принимается никакой трафик.

Защита на уровне аппаратного обеспечения Этот уровень защиты сервера от DDoS-атак намного серьезнее других, следовательно и требует намного больших затрат. Стоимость комплексных решений может достигать нескольких десятков тысяч долларов. Поэтому меры на уровне hardware скорее подходят серьезным и большим проектам, где эти затраты будут полностью оправданы.



Общепризнанными лидерами в области подобной защиты являются Cisco и 3com. Эти производители выпускают довольно эффективные аппаратные средства для противостояния сетевым атакам, также предлагаются комплексные решения для защиты. Механизмы работы этих устройств основаны на анализе входящего трафика с помощью специальных алгоритмов и последующей фильтрации. То есть нужные запросы, которые прошли проверку, не подвергаются блокировке, а подозрительные и их начальные сегменты сети – блокируются. Таким образом осуществляется отсев трафика при бесперебойной работе сайта.

Защита на уровне поддержки хостера Специалисты хостинговых компаний используют способы анализа логов файерволла, которые позволяют выделять IP-адреса тех машин, с которых осуществляется атака. При наличии списка таких адресов можно попытаться блокировать их. При этом другие адреса заблокированы не будут, то есть запросы от обычных пользователей смогут нормально обрабатываться на сервере, и посетители смогут заходить на сайт.

Существует также много фирм, которые предоставляют услугу защиты от DDoS-атак. Есть разные тарифные планы по защите от атак разной мощности. Владельцы могут выбрать оптимальный в зависимости от масштабов своего проекта и бюджета. Среди таких компаний, профилем которых является защита и предотвращение DDoS-атак, можно назвать ddoshosting.ru, ddosoff.ru и digilex.ru. Следует отметить, что некоторые компании предлагают свои услуги по защите от сетевых атак бесплатно. Делается это в рамках тестирования различных систем безопасности. Но полностью рассчитывать на такие решения не следует.

Еще один немаловажный момент – это выбор хостинг-провайдера по критерию степени защиты. То есть о защите от DDoS-атак можно позаботиться еще на стадии выбора хостера. Практически все поставщики хостинг-услуг используют экраны, которые работают по принципу анализа и фильтрации пакетов. Надо подробно прочитать или поинтересоваться в службе поддержки о мерах защиты виртуальных серверов. Часто хостинг-провайдеры предоставляют защиту от DDoS как дополнительную услугу. Не стоит надеяться, что дешевый хостинг спасет от сетевой атаки: хостеры часто экономят на оборудовании и программном обеспечении для защиты.

Выводы

Если у вас обычный сайт-визитка или небольшой интернет-магазин, то поводы для беспокойства из-за возможной DDoS-атаки сводятся к минимуму, большие траты на защиту не будут оправданы. Но если тематика сайта или другие причины могут вызвать общественный резонанс, то есть смысл обезопасить его от возможных нападений. Сайты политических партий и движений обязательно должны иметь прочную защиту от злоумышленников, так как довольно часто становятся мишенью для распределенных атак.

http://subscribe.ru/archive/inet.search.weboptimiz...mp;uuid=MayT16ZkgkxYfVI5Ipdlrg


Поиск сообщений в Olga21
Страницы: 7 6 [5] 4 3 2 1 Календарь