Чисткой поисковых систем занялись в ручную специалисты обученные по каким критериям ручной оценки проверять сайт и удалять его из участия поискового ранжирования. Может быть с этим и связано то что число нумерованных мест отображаемых в поиске снизилось с 1000 сначала до 500 затем с годами и до 300 позиций – так проще отсматривать периодами все результаты ранжирования по всем популярным тематикам в ручную, появились различные веб-формы куда направить жалобу на некачественный и ужасный сайт для его ручной проверки который попал в ТОП по причине избыточного перечисления ключей много раз в страницах. В курсах по SEO обычно могут прикладывать в PDF много картинок показывающих где найти форму куда написать в поддержку ПС что бы или пожаловаться на чужой сайт или уточнить информацию нет ли санкций к собственному проекту - наглядно показывая по шагам как все это происходит, реально же года за 3 все это уже выглядит по другому т.к. меняются и разделы и дизайны веб-интерфейсов.
Алгоритмы стали выкидывать из поиска целиком сайты если например в странице 1500 символов а там 6-7 раз ключ встречается – это стало казаться сильно выше среднего и иногда можно было получить санкции от поисковой системы за переоптимизацию. Курсы по SEO нужны как раз что бы исключить такие события - иначе разместив десятки текстов с переизбытком ключевых слов эти тексты могут быть выкинуты из поиска и не иметь эффект на все остальные позиции может быть получен тормозящий эффект ну раз сайт уличен в нарушениях значит он мог что-то нарушить где-то еще. За массовую закупку ссылок по конкретному слову или иному ключевому слову стали накладывать санкции в виде понижения этого слова на 20-30 позиций до тех пор пока чрезмерное число ссылок не будет снято по данному ключу, например на некоторые ключи закупив 20 ссылок можно было получить не рост а снижение позиций сайта по такому слову на несколько страниц сразу в день очередного Апдейта ранжирования сайтов. Безопасно 3-4, при 6 повторах слов в тексте на такой объем уже начинаются явные риски. Однако если написать по 4 ключа по все страницы сайта и не больше это то же поймают алгоритмы как странность с возможными последствиями за искуственность. Больше ключей - можно, если увеличить объем текста либо если все слова по другому и не напишешь - в таком случае при исключении страницы или санкциях можно обратится в поддержку и попробовать попросить рассмотреть ситуацию с ней в ручную. Однако был случай когда обращение в поддержку за более лучшей индексацией привело к иключению из нее другого раздела который был более значимым по объему, без каких либо комментариев или пояснений по этому поводу.
Поэтому сразу и много ссылок проставлять не рекомендуется – по немногу и не сразу а размеренно. Что касается выделения слов жирными ( B ) HTML тегами или подчеркиваниями что бы придать силы для ПС этим словам то периодически правила алгоритмов могут быть разными, в одних случаях за частоту употребления жирных слов было заявлено что будет накладываться понижение позиций, SEO получило новую тенденцию применять курсив, тогда за курсив так же стали сообщать о санкциях, вероятно со временем появился некий смешанный алгоритм определять когда и какие тексты явно злоупотребляют SEO. Как считают в СЕО фирмах заявленные данные часто преувеличены и например плотность в 6 похожих вхождений ключей на страницу считается на гране санкций но не достигающих их, а тех кто опасается допускать больше 3-4 опасаясь санкций называют перестраховщиками которые не доиспользуют возможности страницы сознательно делая сайт слабее по плотности слов чем вероятные конкуренты и что нужно старатся в условиях конкуренции за позиции подбивать число ключей в странице близко к порогу срабатывания алогоритмов поиска нарушений с небольшим запасом не достигая его например соблюдая заспамленность ключа = 4.5 (5.5-6 спаности слова в тексте уже есть риск санкций хотя это не обязательно что он будет - SEO компании экспериментально тестируют это порог срабатывания но иногда можно решить что лучше к нему близко не приближаться) если без процентов то безопасно 3-4 ключа на 1500 символов без пробелов, иногда некоторые SEO оптимизаторы считают это недоиспользованием возможностей страницы и делают число слов выше, но при 6-7 уже может сработать алогоритм обнаружения неестественности числа слов (существуют сервисы онлайн позволяющие обанаружить этот показатель, не все они одинаково полезны - нужен такой который оценивает по целым словосочетаниям а не просто по словам - такие web сервисы подсветят цветом опасности слишком часто упоминаемый ключ в страничке исходя из последних допустимых данных.) Одно из главных вещей которые должен сообщить курс по SEO это то что ПС должна в своих таблицах произвести запись что вот эти страницы - они по вот этой заданной теме! Только тогда эти страницы играют позитивную роль в ранжировании в результатах поиска. Потому что огромное число страниц сайтов ПС воспринимают как случайно определеные по вообще случайно найденным в тексте словам, не схыватывая тему! Если проверить каждую страницу сайта на разных веб-сервисах ведущих подсчет ключевых фраз окажется часто что большая часть страниц вообще определяются поисковыми системами по таким темам по которым владелец сайта считает что ему такие темы в сайте и ненужны. Для этого и проводится оптимизация страниц - что бы алгоритм ПС увидел что каждая страница сайта принадлежит к заданной теме а не к случайно детектированной! Иначе такие страницы больше вредны чем полезны являясь балластом для сайта если ПС не присвоили им правильную тематику - поэтому иногда прибегают к приему проставить сразу 3 ключевых словосочетания в разных предложениях но в первой половине текста - что бы алгоритмы точно задетектировали тему в странице в самом начале не ухаватив никаких других слов случайно при определении темы (не забыв прописать этот же ключ в Кейвордс и Дескрипшин).
Некоторые из появившегося множества СЕО фирм стали публиковать на своих сайтах абсолютно недостоверные данные относительно реальной ситуации что бы непозволить читателю самостоятельно заниматься этим направлением без участия компаний. Например частыми были абсолютно не соответствующие мифы публикуемые на сайтах что например Яндекс оказывается перестал повышать позиции сайтов на которые закупаются ссылки - но это не совсем так. Это недостоверные слухи. Все ровно наоборот – сейчас если есть тексты в сайте но ссылок нет на него – вообще ничего нигде может не показаться. Если покупать на сайт по чуть чуть ссылок и с хороших сайтов то наоборот будет только хорошо для позиций – в том числе потому что такие ссылки еще и дополнительно иногда приводят на сайт немного посетителей по переходам с них. Читать выкладываемые подобия курсов по SEO на сайтах фирм оказывающих эти услуги плохой способ получить полезные знания - у разных компаний и seo оптимизаторов свои способы, приемы и ноу-хау - понимая что конкурирующие компании могут изучать сайты других и читать что там написано правду на этих сайтах писать скорее всего небудут, а на практике еще и могут дать вообще неработающие советы в форме списка новостей от поисковой системы отобрав те которые не имеют реальной пользы если этим советам следовать.
ПС понимают что сайты нужно показывать такие которые полезные для пользователя поисковой системы. поэтому борются с захламлением поисковой системы кучей сайтов с одинаковой информацией – стали появляться данные что ПС перестают допускать в поиск своих систем абсолютно все сайты и будут выделять группу лучших по каждой категории тематик и давать им приоритет – остальные будут получать позиции по второстепенному принципу что бы исключить ситуации с бесконечным наличием в поиске сотен сайтов на одну тему с похожими данным дав приоритет лидирующим наиболее качественным площадкам что бы сократить время на поиск нужного сайта небольшим набором отборных сайтов на первых страницах. Примерно это значит то что остальные сайты по этим же темам смогут получать позиции но за пределами первой т.е. вперед будут иметь шансы выйти лишь крупные площадки вероятно в том числе проверенные в ручную с проставленным параметром что это крупный лидирующий по сравнению с другими сайт и если по теме уже есть с десяток таких опередить их очередным новым сайтом появившимся будет намного сложнее. Этому предшествовали более простые механизмы, в виде борьбы с копиями сайтов, поэтому если просто скопировать с чужого сайта текст и разместить на своем сайте то это будет нарушением. За это на сайт могут быть наложены санкции от поисковой системы, грубо говоря сайт может попасть под фильтр согласно которому его позиции по словам будет понижены в поиске. Либо страницы со скопированным текстом не будут вообще учитываться поисковой системой как и тексты на них.
Поэтому все тексты на сайтах должны быть максимально уникальны - есть программы которые проверяют уникальность текстов на сайте со всеми другими сайтами в интернете (их можно попробовать найти в интернете) - чем более уникальный текст сайта тем лучше он будет показываться. Уникальность текста каждой странички должна составлять 80-100%. Если уникальность около 60% то есть целые куски текста на сайте совпадают слово в слово то есть скопирована с других сайтов то такие сайты ПС считает не очень хорошими и даже плохими. С некоторого времени ПС стали запоминать на каком сайте текст появился первее, что сделало менее востребованным писать письма на почту ПС со спорами чей сайт первый опубликовал страницу с похожим текстом. Если на сайтах текст которых имеет низкую уникальность стоит ссылка на ваш сайт то ПС часто не будут учитывать такую ссылку или вовсе наложат санкции на сайт за то что на него много ссылок ссылаются с плохих некачественных сайтов администрация которых не вкладывает усилия в уникальность страниц. То есть ссылки нужно проставлять очень осторожно только с качественных сайтов оценивая такие сайты на предмет что бы ссылка с них не навредила сайту а была полезной.
|
|