Случайны выбор дневника Раскрыть/свернуть полный список возможностей


Найдено 159 сообщений
Cообщения с меткой

ранжирование - Самое интересное в блогах

Следующие 30  »
kiev2376393

Facebook обновил алгоритм ранжирования видео и ограничил доступ к mid-roll рекламе

Суббота, 06 Января 2018 г. 04:11 (ссылка)

Facebook изменил алгоритм ранжирования видео в соцсети. Компания также ввела новые ограничения на добавление рекламы формата mid-roll и объявила, что в следующем году протестирует 6-секундные прероллы.

Метки:   Комментарии (0)КомментироватьВ цитатник или сообщество
kiev2376393

Facebook обновил алгоритм ранжирования видео и ограничил доступ к mid-roll рекламе

Воскресенье, 24 Декабря 2017 г. 17:23 (ссылка)

Facebook изменил алгоритм ранжирования видео в соцсети. Компания также ввела новые ограничения на добавление рекламы формата mid-roll и объявила, что в следующем году протестирует 6-секундные прероллы.

Метки:   Комментарии (0)КомментироватьВ цитатник или сообщество
AlterWEB

Google не намерен увеличивать вес HTTPS в ранжировании

Среда, 13 Декабря 2017 г. 11:02 (ссылка)


*



Google не намерен увеличивать вес такого фактора, как HTTPS, в ранжировании. Об этом заявил представитель поиска Гэри Илш.



На днях сотрудник Moz Питер Мейерс задал Илшу следующий вопрос: «После того, как доля HTTPS-результатов достигла 50% (по нашим данным), планирует ли Google предоставлять защищённым сайтам бо́льшее преимущество в ранжировании?».



Он ответил так:



«Нет. Мы повторно рассмотрели эту идею несколько месяцев назад и решили от неё отказаться».







Напомним, что Google начал учитывать использование HTTPS на сайте в качестве сигнала для ранжирования в 2014 году. Вес фактора небольшой, но многие компании переходят на безопасный протокол, чтобы усилить защиту своих пользователей.



В декабре 2015 года Google начал индексировать HTTPS-версию страницы по умолчанию. С тех пор наблюдается небольшой, но устойчивый рост доли HTTPS в топе результатов выдачи поисковика.



А в октябре 2016 года стало известно, что небольшой импульс в ранжировании Google по-прежнему получают все HTTPS-страницы – даже при наличии ошибок протокола.



Взято с: Google не намерен увеличивать вес HTTPS в ранжировании

Метки:   Комментарии (0)КомментироватьВ цитатник или сообщество
AlterWEB

Лучшие практики для поисковой выдачи

Пятница, 27 Октября 2017 г. 16:48 (ссылка)


*



Поиск — это своего рода разговор между пользователем и системой: пользователь формулирует свою потребность в информации как запрос, а система дает ответ в виде списка результатов. Поисковая выдача — ключевой компонент в процессе поиска: она позволяет завязать диалог и задать направление изысканиям пользователя.



В этой статье я бы хотел поделиться 10 практиками, которые помогут вам усовершенствовать UX страницы с результатами поиска.



1. Не удаляйте пользовательский запрос после нажатия на кнопку «Найти»



Сохраняйте исходный текст. Изменение формулировки запроса — важный шаг в многих поисковых процессах. Если пользователю не удалось найти то, что нужно, он, возможно, захочет повторить попытку с немного скорректированным запросом. Чтобы упросить задачу, оставляйте в строке поиска введенный текст — так ему не придется заново вбивать запрос.



2. Предоставляйте точные и релевантные результаты



Первая страница результатов — на вес золота. Поисковая выдача — это prime focus всего процесса поиска, она может оказать огромное влияние на конверсию страницы. Пользователи, как правило, очень быстро составляют мнение о ценности сайта, основываясь на качестве выдачи по паре запросов.



Поэтому очевидно, что следует выдавать пользователям результаты, точно соответствующие запросу, иначе функция поиска не вызовет у них доверия. Как следствие, необходимо выстраивать результаты оптимальным образом — все самое полезное должно попасть на первую страницу.



3. Автозаполнение должно работать



Неэффективное автозаполнение может привести к испорченному опыту поиска. Убедитесь, что функция выполнена на высоком уровне. Среди полезных инструментов можно назвать распознавание корней, предикативный ввод текста и предложения, которые появляются по мере ввода текста. Все это помогает ускорить процесс и направляет пользователя к действию, которое повысит конверсию.







4. Исправляйте опечатки



Процесс печати редко обходится без ошибок. Если пользователь сделал опечатку в запросе и вам удалось её обнаружить, вы можете показать ему результаты для того запроса, который угадали и «подправили». Так вы избавите его от сообщения «ничего не найдено» и необходимости вводить запрос еще раз — а все это изрядно действует на нервы.











У Asos хорошо получается выдавать альтернативные результаты в случае опечатки и при этом не обижать пользователя. Если кто-то вводит запрос Overcoatt, они добавляют дипломатичную приписку: «Мы также включили результаты для Overcoat».



5. Показывайте, сколько страниц найдено



Отображайте число доступных результатов в поисковой выдаче, чтобы пользователь мог решить для себя, сколько времени готов потратить на просмотр выдачи.







Также количество результатов помогает пользователю принимать более осмысленные решения об изменении формулировки запроса



6. Сохраняйте историю поисковых запросов



Даже если пользователь хорошо знаком с функцией поиска, ему приходится припоминать какую-то информацию, чтобы ей воспользоваться. Для составления содержательного запроса, ему нужно обдумать, какие атрибуты искомого наиболее релевантны, учитывая поставленную цель, и включить их в запрос. Выстраивая процесс поиска, не забывайте базовое правило юзабилити:



С уважением относитесь к приложенным пользователем усилиям



Ваш сайт должен сохранять все недавние запросы, чтобы предоставить эту информацию, когда пользователь в следующий раз захочет выполнить поиск.







История поиска полезна пользователю тем, что позволяет сэкономить время и силы при повторном поиске по тому или иному запросу.



Совет: выдавайте не более 10 вариантов (и не используйте полосу прокрутки), чтобы не перегружать пользователя информацией.



7. Правильно выбирайте тип разметки



Один из самых сложных моментов в отображении поисковой выдачи связан с тем, что для разных типов контента следует выбирать разные виды разметки. Две основных разновидности представления контента — это список и сетка. Общее правило:



Для деталей — список, для изображений — сетка



Давайте рассмотрим это правило на примере интернет-магазинов. Здесь очень важно, что именно мы продаем. Для таких товаров, как бытовая техника, характеристики вроде модели, рейтинга, размеров играют существенную роль в процессе выбора — соответственно, логичнее отображать их списком.







Сетка же — хороший вариант для приложений с товарами, в процессе выбора которых требуется меньше информации, или для товаров, которые мало отличаются друг от друга. Когда речь идет об одежде и тому подобном, решение принимается в меньшей степени на основании текстового описания и в большей — на основании внешнего вида. В таком случае для пользователей важнее иметь возможность самим визуально оценить различия между товарами, и удобнее прокрутить до конца одну длинную страницу, чем постоянно перескакивать со страницы выдачи на индивидуальные страницы товаров.







Советы:



- Позвольте пользователям выбирать, как отображать выдачу — списком или сеткой. Так у них будет возможность самим решить, какой способ предпочтительней.

- Если представляете контент в виде сетки, задайте правильный размер картинок — они должны быть достаточно крупными, чтобы изображение было легко разглядеть, но при этом достаточно компактными, чтобы отображать по несколько штук на одном экране.



8. Показывайте прогресс



В идеале результаты должны отображаться моментально, но если это невозможно, стоит использовать индикатор процесса как источник фидбэка для пользователя. Нужно, чтобы пользователи ясно видели, сколько еще им придется ждать.



Совет: если поиск выполняется долго, попробуйте применить анимацию. Симпатичная анимация может отвлечь пользователя и заставить забыть о длительном ожидании.



9. Подключите возможность сортировать и фильтровать результаты



Если выдача слишком обширна и содержит нерелевантные варианты, пользователь может почувствовать себя дезориентированным. Следует дать ему возможность применять релевантные для данного поиска фильтры, причем по несколько штук за раз.







Фильтры могут помочь проредить и упорядочить результаты, если в противном случае потребуется много проматывать или переходить со страницы на страницу.



Советы:



- Важно не перегружать пользователя слишком большим количеством вариантов. Если для поиска требуется много фильтров, отображайте по умолчанию только часть из них.

- Не прячьте прячьте функцию сортировки среди фильтров — это две разные операции.

- Если пользователь решил сузить область поиска, пропишите выбранную область над списком результатов.







10. Не выдавайте «Ничего не найдено»



Досадно, когда попадаешь на пустую страницу без результатов, особенно если это уже не первая попытка. В процессе поиска пользователи не должны оказываться в тупике, даже если на сайте нет страниц, соответствующих их запросу. В таких случаях вам следует обеспечить ценные для пользователя альтернативы (например, интернет-магазин может предложить в качестве альтернативы товары из похожей категории).







На сайте HP страница «Ничего не найдено» — по сути, тупик для пользователя. Этим она существенно отличается, например, от соответствующей страницы на сайте Amazon, где предлагаются альтернативные варианты запроса в контексте категории.



Заключение



Поиск — ключевой элемент для создания сайта, который приносил бы прибыль. Пользователи ожидают, что процесс поиска и усвоения информации будет проходить гладко, и быстро составляют мнение о ценности сайта на основании качества выдачи по одному-двум запросам. Качественная функция поиска должна помогать пользователям легко и быстро найти то, что им нужно.



Взято с: Лучшие практики для поисковой выдачи

Метки:   Комментарии (0)КомментироватьВ цитатник или сообщество
AlterWEB

Google: возраст домена не влияет на ранжирование

Суббота, 07 Октября 2017 г. 23:28 (ссылка)


*



Возраст домена не влияет на ранжирование сайтов в Google. Об этом заявил представитель поиска Джон Мюллер в ответ на вопрос одного из вебмастеров в Twitter.







Как сообщалось ранее, срок регистрации домена также не является фактором ранжирования.



В июне 2016 года Джон Мюллер рассказал, что ключевые слова в TLD не помогают сайтам занимать более высокие позиции в поисковой выдаче. А в октябре того же года стало известно, что в арсенале Google нет такого сигнала, как «авторитетность домена».



Взято с: Google: возраст домена не влияет на ранжирование

Метки:   Комментарии (0)КомментироватьВ цитатник или сообщество
AlterWEB

Глубокий взгляд на самый серьёзный кризис качества поиска Google

Пятница, 29 Сентября 2017 г. 16:06 (ссылка)


*



В последние несколько месяцев репутации Google был нанесён серьёзный урон. Длительное время Google считался «золотым стандартом» в поиске. Однако сейчас результаты, возвращаемые поисковой системой, подвергаются сомнению так, как никогда прежде. Это ставит под удар основной бизнес компании в то время, как она осваивает новые области.



Оправиться от этого удара будет непросто. То, что произошло с Google, по серьёзности можно сравнить с фиаско Карт Apple и взрывающимися телефонами Samsung Galaxy Note 7.



Что подорвало доверие к Google



В ноябре 2016 года Google оказался ввязанным в проблему фейковых новостей, которая изначально по большей части касалась Facebook. В частности, в топе блока «В новостях» отображалась страница, в которой указывались итоги президентских выборов в США. Однако эта информация не соответствовала действительности.







В следующем месяце, в декабре, издание The Guardian выяснило, что Google возвращает крайне тревожные ответы. Например, устройство Google Home рассказывало, что в каждой женщине есть некоторая доля проститутки и зла.



Неделю спустя Guardian опубликовал ещё одну статью. В ней сообщалось, что Google показывает сайт, отрицающий Холокост, в топе поисковой выдачи по запросу «Был ли Холокост».







Об этом ещё не успели забыть, как в марте 2017 года Google подтвердил, что бывший президент США Барак Обама планирует государственный переворот. Это был один из «готовых ответов» или «единственно верных ответов», которые появляются в топе страницы результатов поиска Google.



В конце того же месяца Google снова отличился, показав публикацию с сайта Breitbart (ультраправый американский новостной ресурс) в топе поисковой выдачи по запросу, связанному с новостями в области науки.







На самом деле, эту ситуацию можно объяснить. Тем не менее, это не остановило очередную волну критики в адрес поисковой системы. Люди привыкли думать, что Google можно задать любой вопрос и получить правильный ответ.



Не исключено, что результаты поиска Google такие же качественные, как и всегда. Более того, возможно, они стали даже лучше. Но если общественность считает, что у Google есть проблемы с качеством поиска, то победа за ней, поскольку объективных данных о релевантности нет.



Отсутствие рейтингов релевантности для поисковых систем



Мы не знаем, какие поисковые системы предоставляют наилучшие результаты. В отрасли нет независимой организации, которая бы исправно и последовательно оценивала фактические результаты. Среди пользователей периодически проводятся опросы. Однако они не проверяют, знают ли респонденты, как оценивать качество результатов.



Google заработал себе репутацию лучшей поисковой системы потому, что на первых порах он заметно превосходил аналогичные сервисы. Люди перестали говорить об использовании «поисковых систем», они начали «гуглить» интересующие их вопросы. При этом Google воспринимался как самый лучший и надёжный способ получить нужную информацию. В 2003 году Томас Фридман опубликовал в The New York Times колонку под названием: «Google – это бог?».



Единственный настоящий противник Google в последние годы, Bing (прим. ред. – на территории США), вначале вообще не воспринимался как конкурент. Тем более, когда он пытался следить за пользователями Google, чтобы скопировать результаты поиска. По большому счёту, результаты Google не подвергались сомнению. Он был лучшим.



При этом все, кто связан с поисковым маркетингом или же внимательно наблюдает за поиском, знали, что у Google есть слабые стороны. Большинство же пользователей считали, что это отличная поисковая система.



Предыдущие проблемы с качеством поиска Google



В 2003 году Google подвергся критике после того, как по запросу «полный провал» (на англ. – miserable failure) на первой позиции ранжировалась официальная биография Джорджа У. Буша. Эта ошибка была исправлена только три года спустя.



Намного больший кризис ждал поисковую систему в апреле 2004 года, когда антисемитский сайт «Jew Watch» ранжировался в топе по запросу «еврей» (на англ. – jew). Google призывали исключить этот ресурс из результатов поиска. Но поисковик заявил, что он не хочет быть цензором. Вместо удаления таких результатов Google поместил рядом с ними дисклеймер. Постепенно конфликт сошёл на нет.



В августе 2005 года Google подвергся ещё одному удару. В Yahoo сообщили, что они индексируют больше страниц, чем Google. В мире, где нет универсального показателя для измерения качества поисковых систем, такой мерой часто выступал размер индекса. В течение месяца Google заявил, что он обошёл Yahoo по размеру индекса.



Наиболее серьёзный кризис, не считая текущего, ждал Google в январе 2011 года. Несколькими неделями ранее появились сообщения о том, что в Google процветают «контент-фермы» , а в результатах поиска появилось большое количество низкокачественного контента. В январе TechCrunch опубликовал резонансную колонку, освещающую эту проблему – «Почему мы отчаянно нуждаемся в новом (и лучшем) Google».



В течение двух месяцев после этого Google запустил новый фильтр под названием Panda, ориентированный на борьбу с контент-фермами и низкокачественным контентом. Общественность расслабилась, посчитав вопрос решённым. Между тем поисковые маркетологи наблюдали, как в течение 4 лет Google запустил около 30 обновлений «Панды», чтобы справиться с этой проблемой.



Текущая угроза репутации поиска Google



Все эти прошлые кризисы были не настолько серьёзными, чем тот, который Google переживает сейчас. В настоящее время результаты, возвращаемые поисковой системой, регулярно подвергаются критике – в том числе за малейшие неточности.



Например, в The Guardian проделали огромную работу, подняв на поверхность серьёзные проблемы, связанные с Google. Но они не всегда корректно оценивали долю вины поисковой системы.



В декабре 2016 года издание опубликовало статью о том, что Google систематически продвигает ультраправые идеи по запросам, связанным с гомосексуализмом и изменением климата.



Это неправда. У Google есть проблемы, из-за которых может показаться, что он продвигает сайты экстремистов. Но на самом деле это не так. С подробным анализом по этому вопросу можно ознакомиться здесь.



Были и другие случаи. Ирония в том, что Google критиковали за отсутствие фактчекинга в статьях, которые сами имели несостыковки в фактах.



Есть ли у Google проблемы с фактами?



Поиск по запросу «Большой Барьерный риф», о котором мы говорили выше, не связан ни с «наукой», ни с «наукой о климате». Это поиск места. Пользователи, которые вводят такой запрос, могут быть заинтересованы в научной информации. Их также может интересовать туристическая или бизнес-информация об этом регионе. Им может быть нужна карта.



Google не может знать наверняка, какое именно намерение лежит в основе этого запроса. Поэтому поисковая система предоставляет разнообразные результаты. Некоторые из них связаны с туризмом, другие – с наукой о климате. В настоящее время результаты поиска по этому запросу в США включают страницы из трёх основных и авторитетных новостных сайтов – CNN, The New York Times и The Guardian. В них говорится о том, что крупные участки Большого Барьерного рифа: а) мертвы; б) находятся в стрессе, но не мертвы; в) совсем не мертвы.







Как ни странно, но эти противоречивые и конфликтующие друг с другом заголовки основаны на одном и том же отчёте об исследовании, в котором утверждается, что Большой коралловый риф переживает серьёзные проблемы. Поскольку в первоначальном отчёте говорилось о том, что риф погиб, исследователи и местные туроператоры выразили несогласие, что вылилось в волну историй о том, что он «не мёртв или не полностью мёртв».



Когда люди ищут что-либо, их также могут интересовать новостные публикации по теме запроса. Поэтому Google добавил в поисковую выдачу блок «Главные новости». Что касается поиска по запросу «Большой Барьерный риф», в этом случае люди необязательно хотят получить новости науки, поэтому Google возвращает различные варианты новостных заголовков.



В тот день, когда эта тема «взорвала интернет», в поисковой выдаче были свежие новости о том, что Большой коралловый риф находится под угрозой. На сайте Breitbart был опубликован комментарий на эту тему. Так получилось, что он получил первое место в выдаче Google.



При этом он не был прикреплён к этой позиции, как предполагалось в статье Gizmodo. Он перемещался в то время, как менялась новостная картина. И этот результат попал на эту позицию не потому, что работа Google – продвигать теории заговора на тему климатических изменений. В Google отметили, что эта ситуация стала естественным следствием показа разных точек зрения, чего пользователи обычно и хотят от поисковой системы.



Многие на самом деле не заботятся о фактах и серьёзных вопросах в поиске, в том числе о том, что цензура может принести нежелательный результат. Они лишь видят, что Google снова дал промашку, и проблема накалилась ещё больше.



У Google действительно есть проблемы, требующие решения



Не поймите неправильно. Google заслуживает критики за некоторые результаты поиска. Даже, если есть причины, объясняющие эти ситуации, это не отменяет того, что поисковик должен принимать корректирующие меры. Есть несколько вещей, которые Google может делать лучше.



Поисковые подсказки / Функция автозаполнения



В феврале Google начал тестировать возможность сообщать об оскорбительных поисковых подсказках прямо из результатов поиска и пообещал улучшить эту функцию в целом. Тем не менее, прошло уже два месяца, а инструмент до сих пор запущен только в ограниченном масштабе. Тем временем спорные подсказки по таким темам, как политические партии, расовые и этнические группы и сексуальная ориентация, получить очень легко.







Эта проблема будет продолжаться до тех пор, пока в Google есть эта функциональность. Автоподсказки основаны на актуальных популярных запросах реальных людей, что и вызывает такие ситуации.



Google необходимо запустить новый инструмент в более широком масштабе как можно скорее. Кроме того, компании стоит рассмотреть возможность отключения этой функции на десктопных устройствах, где она не так важна, как на мобильных. Нужно найти способы фильтрации оскорбительных подсказок. Это проблема, которая существует уже более шести лет. Google нужно делать больше для её решения.



Блоки с ответами



Возможно, Google следует убрать блоки с ответами из результатов поиска на десктопных устройствах, где они не являются необходимыми. Это побудит пользователей оценивать разные результаты, а не фиксироваться на единственно верном ответе, который на самом деле может быть совсем не верным.



В Google Assistant и Google Home убрать готовые ответы будет намного сложнее, поскольку, когда они работают – а они работают – они служат отличительной особенностью, ставящей Google впереди Siri в Apple и Alexa в Amazon.



В прошлом месяце Google запустил новую инициативу, ориентированную на борьбу с оскорбительным контентом в результатах поиска при участии асессоров. Однако это не остановит такие сайты, как Quora, от показа недостоверной информации о том, кто «изобрёл» домашний труд:







Человек, который упоминается в этом ответе, не является реальной личностью. Он не изобретал домашнюю работу. Но поскольку страница предоставляет ответ на вопрос, Google поднимает её в результатах поиска. То же самое делает и Bing. Последний после выявления этой проблемы начал использовать ответы из сообщества Bing Distill, где на вопросы отвечают волонтёры.



Это лучше, но это не масштабируемое решение, оно не позволяет решить проблему целиком. Людям нужны быстрые ответы на запросы по самым разным темам. Чем полнее поисковая система будет этим заниматься, тем больше ошибок она будет допускать в отношении нечётко сформулированных или редких вопросов.



В целом решение может состоять в том, чтобы голосовые ассистенты делали больший акцент на том, что они пытаются предоставить наилучший ответ, и таким образом поощряли пользователей просматривать и другие результаты. В итоге они бы, возможно, стали более критично подходить к получению информации и осознали, что не на всё есть один единственный верный ответ.



Качество поиска



Помимо показа готового ответа в специальном блоке, у Google есть и другие проблемы. В частности, результаты в топе выдачи могут быть оскорбительными или же неуместными – как в случае поиска по запросу на тему, был ли Холокост.



Эта проблема обозначилась в декабре 2016 года, и Google в течение недели внёс изменения в свой алгоритм касательно результатов поиска по запросам, связанным с Холокостом. Данные от асессоров помогут ещё больше улучшить выдачу по таким запросам.



При этом Google, скорее всего, не может удалить все нежелательные результаты. Спорные ситуации будут возникать. Вопрос в том, будет ли это рассматриваться как недоработка или же невозможность устранить проблему целиком.



Главные новости



Ответственность за появление недостоверных новостей и сомнительного контента в блоке «Главные новости» по большей части лежит на Google. Поисковик сознательно начал показывать в блоке «В новостях» публикации, которые не относятся к проверенным новостным ресурсам. Именно поэтому в нём появились фейковые результаты выборов. Переименование блока в «Главные новости» не повлияло на эту ситуацию.



Решить проблему показа контента с сайта Breitbart может лишь полное исключение этого ресурса из Google Новостей. Breitbart – это проверенный сайт, который был принят в Google Новости.



Поиск никогда не будет идеальным



В конце концов, хорошо, что Google переживает этот кризис качества поиска. Давление общественности заставляет его обратить внимание на те проблемы, которые необходимо решать.



При этом неясно, сможет ли Google преодолеть свою наибольшую трудность: постоянную критику за проблемы, которые ни одна поисковая система не в состоянии полностью искоренить, учитывая то, насколько широким является поиск.



Google обрабатывает 5,5 млрд запросов в день. Из них около 15% – полностью новые, которые ранее не поступали. Google пытается отвечать на эти запросы, генерируя результаты поиска из миллиардов страниц по всей Сети. Они не могут быть идеально подходящими каждый раз. Это попросту невозможно.



Наличие спорных или неприемлемых результатов в поисковой выдаче – это не новая проблема. Google уже сталкивался с кризисами качества раньше. Однако, эта проблема растёт по мере того, как всё больше такого контента вливается в Сеть, или же люди более пристально следят за его появлением в результатах поиска.



Это невозможная задача. Тем не менее, она из тех, где стремление к совершенству остаётся критически важным.



Поиск – это сложно. В прошлом основной проблемой для инженеров поисковых систем была борьба с явным спамом, который пытался получить высокие позиции в выдаче. Теперь им приходится бороться с псевдоправдивым контентом – когда алгоритмы воспринимают страницы как информативные и основанные на фактах, хотя на самом деле они таковыми не являются.



Нам нужно продолжать требовать от Google и поисковых систем высоких стандартов и поднимать вопрос, если что-то идёт не так. Но мы также должны понимать, что идеал недостижим. Что имея несовершенные поисковые системы, производя поиск, мы должны использовать навыки критического мышления. И должны передать эту идею будущим поколениям.



В жизни очень редко бывает «единственно верный ответ» на что-либо. Ожидать от Google или любой другой поисковой системы таких ответов – это ошибка.



Взято с: Глубокий взгляд на самый серьёзный кризис качества поиска Google

Метки:   Комментарии (0)КомментироватьВ цитатник или сообщество
AlterWEB

Нужно ли отклонять ссылки в эпоху Penguin 4.0?

Четверг, 28 Сентября 2017 г. 10:13 (ссылка)


*



С момента запуска Penguin 4.0 прошло уже полгода. Google понадобилась целая вечность, чтобы выпустить это обновление. Но оно того стоило. Эта версия работает намного справедливее, чем предыдущие итерации Penguin. Ранее при подозрении на манипуляции со ссылками алгоритм понижал сайт целиком. Даже после очистки ссылочного профиля санкции сохранялись до запуска следующего обновления алгоритма. Владельцам сайтов приходилось ждать выхода из-под фильтра месяцами, а то и годами.



По словам сотрудника Google Гэри Илша, теперь Penguin не понижает сайты за некачественные ссылки, а обесценивает сам спам.



В настоящее время поисковик достаточно доверяет своей способности выявлять и обесценивать спам, что позволило устранить карательный аспект Penguin. И это впечатляет.



Однако это изменение наталкивает на следующий вопрос: если Penguin способен самостоятельно находить и обесценивать спам, есть ли ещё причины использовать инструмент отклонения ссылок?



Краткое напоминание: что такое Disavow Tool



Инструмент отклонения ссылок (Disavow Tool) был запущен в октябре 2012 года. Чтобы воспользоваться им, нужно загрузить в Google файл, который содержит список URL или доменов, которые нужно отклонить. Затем, когда Google будет сканировать интернет и попадёт на URL или домен из файла Disavow, то он не будет использовать ссылки из этой страницы при расчёте PageRank для данного сайта. Penguin также будет игнорировать эти ссылки.



Для сайтов, которые попадали под Penguin ранее, инструмент отклонения ссылок был неотъемлемой частью работы над выходом из-под фильтра. С его помощью они могли сообщить Google, что эти ссылки больше не должны учитываться. В идеале, наилучшим решением было бы удаление некачественных ссылок из интернета, но это не всегда возможно. До выхода Penguin 4.0 инструмент отклонения ссылок был чрезвычайно важен для каждого сайта, попавшего под фильтр.



Текущая позиция Google касательно Disavow Tool



Вскоре после выхода Penguin 4.0 вебмастера начали спрашивать Google, нужен ли ещё инструмент Disavow. Если поисковик способен обесценивать спамные ссылки, зачем их отклонять? В Google ответили, что рекомендации по использованию инструмента отклонения ссылок остались прежними.



Сторонники теории заговора в ответ на эти заявления сказали бы: «Конечно, Google хочет, чтобы вы отклоняли ссылки! Им нужны данные для машинного обучения Penguin».



Однако в октябре 2016 года в Google заявили, что Penguin не является алгоритмом машинного обучения. Но даже если поисковик использует данные инструмента отклонения ссылок для машинного обучения, имеет ли это значение? По нашему мнению, если Google говорит, что вебмастерам всё ещё нужно использовать файл Disavow, то у него нет цели ввести их в заблуждение.



Три причины по-прежнему использовать Disavow Tool



Есть три основные причины, по которым мы всё ещё рекомендуем использовать инструмент отклонения ссылок.



1. Ручные санкции никто не отменял



Google может принять ручные меры в отношении сайта, замеченного в манипуляциях со ссылками, что может нанести значительный урон его «здоровью» в долгосрочной перспективе.



В октябре 2016 года Гэри Илш рассказал, что когда сотрудник команды по борьбе с веб-спамом просматривает ссылочный профиль сайта, он может видеть возле ссылок специальные ярлыки.



«Если команда, которая занимается ручными санкциями, по какой-либо причине проверяет сайт и видит, что большинство ссылок помечены как обработанные Penguin, она может решить провести более глубокую проверку… а затем, возможно, наложить на него ручные санкции из-за ссылок».



Другими словами, если в ссылочном профиле сайта содержатся неестественные ссылки, и владелец ресурса не отклоняет их, полагаясь на Penguin, то он рискует получить ручные санкции.



Понятно, что если сайт уже попал под ручные санкции, то для выхода из-под них нужно использовать отклонение ссылок наряду с их удалением.



2. Есть и другие алгоритмы, которые используют ссылки



Качество ссылок всегда было важно для Google. По нашему мнению, Penguin – это лишь один из способов, с помощью которых Google борется с неестественными ссылками алгоритмически. Ещё одним алгоритмом, который вероятно использует ссылки, является Google Payday Loans. Этот фильтр не предназначен исключительно для сайтов краткосрочных кредито. Он также анализирует сайты во многих высококонкурентных тематиках.



Владелец блога SEO by the Sea Бил Славски недавно опубликовал интересную статью, в которой он поделился своими мыслями по поводу одного из последних патентов, зарегистрированного Google. Этот патент описывает ситуацию, когда ресурс может иметь большое количество указывающих на него ссылок при непропорционально низком объёме трафика. В таких случаях страница, на которую ссылаются, может быть понижена в ранжировании.



Учитывая, что это всего лишь патент, совсем необязательно, что за описанной в нём технологией стоит конкретный алгоритм. Тем не менее, его существование не исключено. И это заставляет задуматься, не так ли?



Google всегда пытался бороться с ссылочным спамом, и Penguin – лишь один из способов, которые поисковая система используется с этой целью. Если есть ссылки, из-за которых Google может воспринять ссылочный профиль как спамный, тогда лучше исключить их из всех калькуляций, которыми занимается поисковая система.



3. Можно ли полностью полагаться на Penguin?



В официальном сообщении о выходе Penguin говорится следующее:



«Penguin стал работать более точечно. Теперь он обесценивает спам, корректируя позиции, основанные на спамных сигналах, а не влияет на ранжирование сайта в целом».



Это заявление до конца непонятно и вызывает следующие вопросы:



- Когда Google говорит, что позиции корректируются, могут ли это быть отрицательные корректировки?

- Может ли Penguin понижать позиции отдельных страниц, не затрагивая сайт в целом?

- Может ли Penguin понижать позиции по конкретным ключевым словам вместо того, чтобы затрагивать сайт в целом?



Как упоминалось выше, сотрудники Google пояснили, что Penguin 4.0 не наказывает сайты, а обесценивает сам спам. Однако это неофициальные заявления. Они могут означать, что теперь вебмастерам вообще не нужно беспокоиться о ссылках, указывающих на сайт. Или же, что волноваться об этом нужно, но не так сильно, как раньше.



Если же успех компании зависит от органических позиций в Google, то полностью полагаться на способность алгоритма распознавать и игнорировать неестественные ссылки, наверное, не стоит.



Кому нужно отклонять ссылки?



Хотя мы по-прежнему рекомендуем использовать инструмент отклонения ссылок, делать это мы советуем в следующих случаях:



- Сайты, которые массово нарабатывали ссылки в SEO-целях – размещали их в каталогах низкого качества, на сайтах с низкокачественными статьями или в комментариях – то эти ссылки нужно убрать. Такие URL могут обесцениваться Penguin, однако они также могут привести к ручным санкциям за манипуляции со ссылками, если их не отклонить.



- Сайты, которые ранее попадали под ручные санкции за неестественные ссылки. Мы выяснили, что со временем такие сайты собирают всё больше спамных ссылок. Иногда это связано с низкокачественными каталогами, которые копируют информацию из подобных каталогов. Ещё одна причина – продолжают поддерживаться старые автоматические процессы генерации ссылок. Иногда объяснения нет, но спамные ссылки продолжают появляться. В большинстве случаев сайты, которые занимались сбором неестественных ссылок, склонны и дальше их собирать. В таком случае наилучший выход – использовать инструмент отклонения ссылок на регулярной основе (ежемесячно или ежеквартально), чтобы избежать новых ручных санкций.



- Сайты, которые подверглись очевидным SEO-атакам. Ключевое слово здесь «очевидным». В большинстве случаев Google способен понять, что спамные ссылки, указывающие на сайт, это те ссылки, которые должны игнорироваться. Однако на конференции SMX West 2017 Гэри Илш заявил, что алгоритм может делать ошибки.



Если на сайт указывает множество ссылок с фармацевтических или порносайтов, их можно отклонить. Но в большинстве случаев их можно проигнорировать. Мы настоятельно рекомендуем отклонять анкорные ссылки с ключевыми словами, по которым вы хотите ранжироваться. Эти ссылки могут быть восприняты командой по борьбе с веб-спамом как используемые в SEO-целях, что может привести к ручным санкциям.



Кому не нужно отклонять ссылки?



Если вы видите в своём профиле «странные» ссылки, объяснить которые не получается, не паникуйте!







Каждый сайт получает странные ссылки и, зачастую, довольно много. Если вы не участвуете в манипулятивных SEO-схемах, у вас, вполне возможно, нет необходимости их отклонять.



Когда Google принимает меры против сайта за неестественные ссылки – как ручные, так и алгоритмические – это связано с тем, что сайт активно пытался манипулировать ранжированием в крупных масштабах. Если в прошлом вы разместили несколько ссылок в каталогах, вряд ли вы попадёте под санкции.



Использовать Disavow-файл не нужно и в том случае, если вы заметили входящие ссылки с сайта в целом. Это может показаться пугающим, когда в Search Console вы видите, что один сайт ссылается на вас тысячи раз, особенно, если речь идёт об анкорной ссылке с ключевым словом. Google понимает, что это ссылка на уровне сайта, а не тысячи отдельных ссылок. Если вы сами создали эту ссылку, чтобы улучшить свои позиции, её нужно отклонить. В противном случае, ничего делать не нужно.



Пограничные случаи



Есть несколько случаев, когда сложно решить, нужно или не нужно отклонять ссылки. К примеру, в том случае, если ранее компания нанимала авторитетную SEO-фирму, которая масштабно занималась линкбилдингом, а не зарабатыванием ссылок для неё.



Допустим, вы получили большинство ссылок с помощью гостевого постинга. Эти посты размещены на сайтах, которые предназначены для людей, а не только для размещения статей. Хорошие ли это ссылки?



Согласно Google, если вы размещаете гостевые посты преимущественно ради ссылок, то это неестественные ссылки. Вот что говорил по этому поводу сотрудник Google Джон Мюллер:



«Оцените ссылку с точки зрения ваших действий на сайте: была бы она там или нет, если бы вы его не оптимизировали. Особенно это касается гостевых постов, в которых вы размещаете ссылку на сайт других людей вместе с контентом, что несколько отличается от чистого линкбилдинга. Думаю, иногда имеет смысл делать гостевые посты и перенаправлять трафик на свой сайт, потому что заинтересованным людям может понравиться то, что вы пишете, однако это тот случай, когда нужно использовать nofollow».



«Оцените ссылку с точки зрения ваших действий на сайте: была бы она там или нет, если бы вы его не оптимизировали. Особенно это касается гостевых постов, в которых вы размещаете ссылку на сайт других людей вместе с контентом, что несколько отличается от чистого линкбилдинга. Думаю, иногда имеет смысл делать гостевые посты и перенаправлять трафик на свой сайт, потому что заинтересованным людям может понравиться то, что вы пишете, однако это тот случай, когда нужно использовать nofollow».



Нужно ли проводить аудит файла Disavow?



Мы считаем, что некоторые сайты могут выиграть от пересмотра файла Disavow и удаления из него части ссылок.



Если в прошлом вы использовали файл Disavow, чтобы выйти из-под ручных санкций или Penguin, то есть вероятность, что в него попало больше ссылок, чем нужно. В таких случаях мы советуем просмотреть файл повторно и убрать из него домены, отклонение которых было спорным.



Это не всегда просто сделать, особенно, если вы использовали отклонение на уровне домена. В таком случае в файле Disavow не будет отдельных URL для проверки. Сложно убрать из файла домен, не зная, о какой ссылке шла речь изначально.



Ниже описан один из вариантов проведения аудита файла Disavow:



- Выгрузите файл Disavow из Google;

- Выгрузите список ссылок из Google Search Console (чем больше источников ссылок, тем лучше);

- В общем CSV-файле создайте столбец для доменов слева от столбца со ссылками. Извлечь домены можно с помощью формулы ниже (при условии, что URL содержатся в столбце В):



=LEFT(B1,FIND(“/”,B1,9)-1)



- Затем можно использовать функцию «Найти и заменить», чтобы заменить http, https и www пробелами. Теперь у вас есть список доменов.

- В файле Disavow список отклонённых доменов можно получить, заменив «domain:» пробелами (При условии, что вы отклоняли ссылки на уровне домена, а не URL).

- Поместите новый список отклонённых доменов на второй лист CSV-файла со ссылками и заполните столбец В словом «отклонён».

- В общем списке ссылок используйте функцию ВПР (VLOOKUP), чтобы выяснить, какие из текущих активных ссылок были отклонены. В формуле ниже домены находятся в первом столбце каждого листа, 1000 – общее число доменов в нашем списке Disavow:



=VLOOKUP(A1,sheet2!$A$1:$B$1000,2,FALSE)



- Теперь вы можете взять домены, которые находятся в вашем файле Disavow, и проверить эти URL.



Ищите те URL, которые отклонялись в целях безопасности, но в реальности могут быть нормальными ссылками.



Примечание: как и во время технического аудита, не принимайте решения только на основании метрик. Хотя некоторые из этих метрик помогают нам принимать решения, не стоит основываться только на авторитетности домена (DA), показателе спама или любом другом показателе. Вместо этого посмотрите на каждый домен с точки зрения сотрудника команды по борьбе с веб-спамом. В частности, имеет ли эта ссылка ценность не только для SEO.



Допустим, мы проверили ссылки в файле Disavow и нашли 20 URL, которые мы хотели бы восстановить. После этого мы возвращаемся к файлу Disavow, выгруженному из Google, и удаляем строчки типа «domain:example.com» для каждого из доменов, который мы хотим возобновить.



Снова загрузите файл Disavow в Google. Он заменит старый файл. Через некоторое время Google начнёт учитывать ссылки, которые вы из него удалили. Однако есть пара вещей, о которых стоит помнить:



- По словам бывшего сотрудника Google Мэтта Каттса, на восстановление ссылки уходит намного больше времени, чем на её отклонение. Прежде, чем ссылка снова начнёт учитываться в ранжировании, должно пройти определённое время. Это делается для того, чтобы спамерам было сложнее обмануть алгоритм.



- Возобновлённая ссылка может передавать меньший вес, чем до её отклонения.



Выводы



Итак, нужно ли отклонять ссылки? В некоторых случаях, да. Если у вас есть ссылки, которые явно предназначены для достижения SEO-целей, их нужно отклонять. В противном случае в будущем сайту могут грозить ручные санкции. Кроме того, важно убедиться, чтобы эти ссылки не учитываются алгоритмами при расчёте рейтинга вашего сайта. Помните, не только Penguin использует ссылки.



Загрузка файла Disavow вряд ли значительно повысит позиции ресурса в Google. Исключение составляют те случаи, когда отклонение ссылок используется для выхода из-под ручных санкций на уровне сайта.



В реальности, никто за пределами Google точно не знает, насколько эффективным является инструмент для отклонения ссылок. Мы знаем только то, что поисковик по-прежнему рекомендует использовать файл Disavow при наличии неестественных ссылок, указывающих на сайт. Поэтому, наш совет будет таким: если в профиле сайта содержатся такие ссылки, их нужно отклонять.



Взято с: Нужно ли отклонять ссылки в эпоху Penguin 4.0?


Метки:   Комментарии (0)КомментироватьВ цитатник или сообщество
kiev2376393

Как контент во вкладках может вредить ранжированию сайта

Среда, 27 Сентября 2017 г. 23:20 (ссылка)

В статье автор делится результатами тестов, призванных выяснить, как размещение контента во вкладках влияет на ранжирование страниц в Google.

Метки:   Комментарии (0)КомментироватьВ цитатник или сообщество
AlterWEB

Google удаляет из индекса страницы с результатами внутреннего поиска по сайтам

Среда, 13 Сентября 2017 г. 22:55 (ссылка)


*



Google автоматически определяет страницы с результатами внутреннего поиска по сайтам и удаляет их из индекса. Об этом рассказал представитель компании Гэри Илш.



Согласно руководству для вебмастеров, такие страницы не должны индексироваться. Однако некоторые владельцы сайтов считают, что они полезны, и хотят, чтобы они отображались в Google. При этом поисковик достаточно успешно борется с попаданием таких страниц в выдачу. Помогают ему в этом специальные алгоритмы.



Иногда алгоритмы не справляются с этой задачей. Тогда проблема решается в ручном режиме.



«Эти страницы, как правило, не так полезны для пользователей. И у нас есть алгоритмы, которые помогают от них избавиться. В частности, не допустить их сканирование. Но иногда они не срабатывают. В таких случаях нам приходится вмешиваться в процесс и создавать новые поисковые правила для этих страниц», — пояснил Илш.


Таким образом, работать над индексацией страниц с результатами внутреннего поиска по сайту не имеет большого смысла. Даже если они попадут в выдачу, со временем Google их уберёт.



 



Взято с: Google удаляет из индекса страницы с результатами внутреннего поиска по сайтам

Метки:   Комментарии (0)КомментироватьВ цитатник или сообщество
AlterWEB

Google поделился новыми деталями по запуску mobile-first индекса

Среда, 13 Сентября 2017 г. 22:17 (ссылка)


*



На конференции SMX Advanced представитель Google Гэри Илш поделился новыми деталями по поводу запуска mobile-first индекса.



По его словам, работа над индексом продолжается. Переход на новый тип индексации состоится тогда, когда в Google будут уверены, что это не скажется на качестве результатов поиска. В компании хотят сохранить его на том же уровне или повысить, но не ухудшить. При этом Илш добавил, что «нейтральности относительно качества» достичь непросто.



Точная дата запуска по-прежнему не назначена. Ожидается, что это произойдёт до конца 2017 года. В ближайшее время запуск не планируется.



На этапе подготовки к этому изменению очень важно скопировать контент, по которому вы хотите ранжироваться, из десктопного сайта на мобильный.



При переходе на mobile-first индексацию концепция скорости страницы будет переработана. Как именно, Илш не уточнил.



Кроме того, после запуска нового индекса возрастёт роль карты сайта.



Напомним, что Google приступил к тестированию mobile-first индекса в ноябре 2016 года. Это означает, что в скором будущем алгоритмы поиска будут в первую очередь оценивать релевантность мобильной версии страницы, а при её отсутствии – десктопной.



Примечательно, что mobile-first Google не будет измерять скорость загрузки мобильных страниц и учитывать этот фактор в ранжировании. По крайней мере, на первых порах.



Если у сайта могут появиться проблемы после перехода на новый тип индексации, Google предупредит об этом через Search Console.



 



Взято с: Google поделился новыми деталями по запуску mobile-first индекса

Метки:   Комментарии (0)КомментироватьВ цитатник или сообщество
AlterWEB

Яндекс: Баден-Баден - новый алгоритм определения переоптимизированных текстов

Среда, 13 Сентября 2017 г. 22:12 (ссылка)


*



SEO-текст – обязательный компонент поискового продвижения сайта. Такие тексты издревле используются на Руси для SEO, поискового продвижения, поисковой оптимизации и раскрутки сайта. Задаетесь вопросом, как написать SEO-текст недорого? SEO-текст написать очень просто – достаточно обратиться к специалисту по написанию SEO-текстов в Москве, Санкт-Петербурге и других городах России. Текст SEO, написать который у вас возникла необходимость, должен обладать двумя важными свойствами – это должен быть текст и он должен быть SEO...



 





 



Такие тексты можно встретить на страницах сайтов, предлагающих различные товары и услуги. Мы не уверены, что такие тексты пишут люди, но совершенно очевидно, что пишутся они не для людей, а для поисковых алгоритмов.



«На самом деле поисковым алгоритмам Яндекса такие тексты тоже не очень нравятся. А теперь будут нравиться еще меньше – мы переработали и существенно улучшили алгоритм, определяющий переоптимизированные страницы. Он является частью общего алгоритма ранжирования, результатом его работы может стать ухудшение позиций переоптимизированных страниц в результатах поиска.



Рекомендуем вебмастерам перечитать страницы сайтов и отказаться от бессмысленных и беспощадных текстов, чтобы не было мучительно больно.

По понятным причинам мы назвали наш новый алгоритм определения текстового спама Баден-Баден», — говорится в официальном блоге Яндекса для вебмастеров.


 



Взято с: Яндекс: Баден-Баден - новый алгоритм определения переоптимизированных текстов

Метки:   Комментарии (0)КомментироватьВ цитатник или сообщество
AlterWEB

Google по-прежнему использует фильтр Page Layout

Среда, 13 Сентября 2017 г. 21:24 (ссылка)


*



Google по-прежнему использует фильтр Page Layout, запущенный в 2012 году. Об этом заявил представитель поиска Гэри Илш в ответ на вопрос одного из вебмастеров в Twitter.



Алгоритм Page Layout анализирует шаблон страницы и содержимое, которое пользователь видит сразу после перехода на страницу из результатов поиска (соотношение рекламы и фактического контента).



Чтобы не попасть под этот фильтр, нужно убедиться, что видимая без прокрутки часть страницы не перегружена рекламными объявлениями, а пользователь может с лёгкостью найти на странице оригинальный контент.



Пессимизированные сайты смогут выйти из-под фильтра Page Layout во время повторного сканирования сайта – при условии, что их владельцы внесли соответствующие изменения в шаблон страницы. Насколько быстро произойдет переиндексация зависит от ряда факторов. В том числе, от количества страниц на ресурсе, а также от того насколько технически грамотно выполнен сайт.



Поэтому разработчики сайтов и веб-дизайнеры всегда должны учитывать то, что Google по-прежнему использует фильтр Page Layout.



 



Взято с: Google по-прежнему использует фильтр Page Layout

Метки:   Комментарии (0)КомментироватьВ цитатник или сообщество
AlterWEB

Searchmetrics: факторы ранжирования ecommerce-сайтов в Google

Вторник, 12 Сентября 2017 г. 06:16 (ссылка)


*



Компания Searсhmertrics поделилась результатами исследования, посвящённого факторам ранжирования ecommerce-сайтов в Google. Целью анализа было выяснить, что влияет на высокие позиции интернет-магазинов в результатах поиска.



 





Основные выводы отчёта



- Лишь 3% из топ-10 ecommerce-страниц содержат рекламу AdSense или Adlinks.



- Интернет-магазины, которые входят в топ-20 сайтов в выдаче Google, имеют намного меньше социальных сигналов, чем в среднем по всем категориям (примерно треть).



- Размер файла ecommerce-страниц в топ-10 Google на 30% больше, чем в среднем по всем категориям.



- Ecommerce-сайты, которые занимают высокие позиции в Google, содержат на 40% больше интерактивных элементов, чем в среднем по всем категориям.



- Коммерческие страницы в топ-10 Google содержат на 70% больше маркированных списков.



- Ecommerce-сайты на первой странице SERP содержат на 70% больше внутренних ссылок, чем в среднем по всем категориям.



- Практически у всех ecommerce-страниц (99,9%) в топ-10 Google домен верхнего уровня был .com.



- Видео играет менее значимую роль в ecommerce, чем в других категориях. Лишь 35% коммерческих страниц в топ-10 содержали встроенные видео.



- Количество слов на ecommerce-страницах в топ-10 было на 25% больше, чем в среднем по всем категориям.



В таблице ниже показана разность, выраженная в процентах, между средними значениями по каждому фактору ранжирования для ecommerce-страниц и по всем категориям в целом.



*



«Большинство маркетологов знают, что для получения высоких позиций в поиске нужно создавать релевантный, высококачественный контент. Однако наше последнее исследование показало, что в сфере онлайн-торговли и ecommerce также нужно уделять внимание специфичным для этого сегмента факторам… В частности, контент должен быть структурирован в виде маркированных списков, чтобы пользователям было проще воспринимать информацию о товаре; раздел для оформления заказа должен быть виден без прокрутки. Также, в большинстве случаев, следует избегать наличия рекламы на странице», — отметил представитель Searchmetrics Дэниель Ферч.



 



Взято с: Searchmetrics: факторы ранжирования ecommerce-сайтов в Google

Метки:   Комментарии (0)КомментироватьВ цитатник или сообщество
kiev2376393

SEL: периодическая таблица факторов ранжирования, версия 2017

Пятница, 30 Июня 2017 г. 21:02 (ссылка)

Издание Search Engine Land опубликовало «Периодическую таблицу факторов ранжирования 2017». Это четвёртый выпуск с момента запуска проекта в 2011 году.

Метки:   Комментарии (0)КомментироватьВ цитатник или сообщество
kiev2376393

SEMrush определил важные факторы ранжирования Google в 2017 году

Четверг, 15 Июня 2017 г. 20:36 (ссылка)

Компания SEMrush поделилась результатами исследования, посвящённого основным факторам ранжирования Google в 2017 году.

Метки:   Комментарии (0)КомментироватьВ цитатник или сообщество

Следующие 30  »

<ранжирование - Самое интересное в блогах

Страницы: [1] 2 3 ..
.. 10

LiveInternet.Ru Ссылки: на главную|почта|знакомства|одноклассники|фото|открытки|тесты|чат
О проекте: помощь|контакты|разместить рекламу|версия для pda