-Рубрики

 -ТоррНАДО - торрент-трекер для блогов

Делюсь моими файлами
    Жду окончания закачки

      Показать все (1)

       -Я - фотограф

      musie cat princess

      moody blue
      1 фотографий

       -Поиск по дневнику

      Поиск сообщений в goldmetel

       -Подписка по e-mail

       

       -Статистика

      Статистика LiveInternet.ru: показано количество хитов и посетителей
      Создан: 20.03.2010
      Записей: 1940
      Комментариев: 16328
      Написано: 25923


      SEO оптимизация по уникальному тексту

      Четверг, 27 Мая 2010 г. 09:59 + в цитатник

      Продвижение сайтов посредством оптимизации контента под поисковые запросы пользователей, сталкивает разработчика с множеством подводных камней. Для получения высокой эффективности этого метода продвижения, необходимо наполнить сайт контентом, который будет не только содержать грамотно подобранные поисковые фразы, но и иметь высокую степень уникальности. Поисковые системы не любят, когда на сайтах размещаются статьи, взятые с других ресурсов. Такие сайты получают низкий рейтинг при поисковой выборке и реже индексируются роботом. По мнению многих оптимизаторов, для негативного отношения поисковика к текстовому содержанию сайта, достаточно, чтобы текст имел даже минимальное сходство с другими источниками. Так ли это, неужели, уникальность текста так влияет на успех сайта?

      Для начала давайте разберемся, что такое уникальность в глазах нынешних оптимизаторов и поисковых роботов. Большинство оптимизаторов измеряют уникальность в процентах, по их мнению, уникальность текста тем выше, чем меньше цепочек слов из него совпадает с контентом других ресурсов. Разработано даже множество программ, которые в автоматическом режиме сравнивают текст на наличие сходства с контентом, имеющемся в интернете. В результате, программы проверки уникальности измеряют ее в процентном выражении, по которому оптимизаторы оценивают – стоит ли размещать этот контент на своем сайте или нет. Но, к сожалению, такой подход не совсем правильный. Конечно, программы проверки уникальности значительно облегчают труд разработчика, ведь ручная проверка достаточно продолжительна по времени. Программы очень удобны для выявления плагиата. Если текст перепечатан с другого ресурса (который находится в индексе), то программа проверки уникальности обязательно это определит. Однако недостатки такой проверки также имеются. При высокой точности выявления плагиата, программы проверки уникальности необъективно относятся к довольно солидной части уникального контента. Программы часто, незаслуженно, определяют уникальный контент, как плагиат. Все дело в принципе проверки. При сравнении учитываются совпадения цепочек слов, идущих в определенном порядке. Обнаружив одну или несколько совпадающих цепочек, программа понижает рейтинг уникальности текста. При этом она не принимает во внимание, какие именно слова совпали, с каких источников. В одну кучу сваливаются и полноценные ключевые фразы, и устойчивые выражения, и «стоп-слова». Принцип же работы современного робота (например поисковой системы Яндекс) индексирующего тексты, немного другой.

      Во-первых, поисковый робот игнорирует «стоп-слова», за которые он принимает предлоги, местоимения, союзы, наречия, многие устойчивые и разговорные выражения, и другие слова, которые очень часто используются, но не имеют поискового веса. Например, такие слова, как – «выход, как, что, я», абсолютно не влияют на оценку роботом содержимого сайта. Поэтому при проверке уникальности, правильно было бы игнорировать их.



      Во-вторых, при индексации оценивается тематика источников, на которых сравнивается содержимое и вес совпавшего содержимого для поисковой выборки. Если совпала даже внушительная цепочка слов с источников разной тематики, не содержащая высокочастотные ключевые фразы – это не повлияет на уникальность.

      В-третьих, роботом оцениваются совпадения не только по цепочкам подряд идущих слов. Но и по схожей их последовательности. Разбавляя цепочку слов с проиндексированного источника, хорошей индексации добиться трудно. Не стоит забывать, что поисковый робот проводит и глубокую оценку самого ресурса. Это часто становится причиной плохой индексации и низкого рейтинга в поисковой выборке. Многие разработчики стараются насытить контент поисковыми фразами, и стараются чаще употреблять их в тексте. А это в большинстве случаев играет злую шутку. Поисковый робот не любит обилие повторений в тексте и может посчитать его поисковым спамом. Это касается не только ключевых фраз, но и не ценной для поискового продвижения части контента. Наверное, каждый разработчик встречал такое, что контент с высокой уникальностью плохо индексируется, и, наоборот, низкая уникальность иногда дает хороший индекс.

      Так, как же выяснить истинную ценность написанного текста для поискового робота. Увы, полноценных программ, которые обеспечат стопроцентную точность пока не разработано. Имеющиеся программы, позволяют с высокой вероятностью избежать публикации на сайте плагиата. И это уже характеризует их, как ценный инструмент. Однако нужно уметь правильно ими пользоваться. При указании программы на совпадения с другими источниками, необходимо изучение похожего текста. Если определенная цепочка слов совпала с текстами сайтов совершенно другой тематики, не несет поискового веса – не страшно – можно смело размещать этот контент.

      Следует заметить, что роботы поисковых систем иногда ведут себя совершенно неадекватно. Наверное, каждый пользователь замечал, что иногда в выборке по поисковому запросу, в первых строчках находятся сайты с совершенно одинаковыми текстами (такое встречается и в выдаче ряда объявлений одного рекламодателя).

      Источник: Немного об анатомии уникального текста

      Метки:  

       

      Добавить комментарий:
      Текст комментария: смайлики

      Проверка орфографии: (найти ошибки)

      Прикрепить картинку:

       Переводить URL в ссылку
       Подписаться на комментарии
       Подписать картинку