Основные правила создания сайта для поисковых систем

Раскрутка веб-ресурса и продвижение его в топы поисковых система - задача понятная, но неоднозначная. Профессионал, который этим занимается много лет, никаких особых трудностей в этом деле не испытывает, потому что он обладает необходимыми для этого теоретическими знаниями и практическим опытом. Для такого специалиста раскрутить новый сайт – не проблема. А вот что делать новичку? Вот, создал, к примеру, новичок новый сайт, допустим, он хороший, интересный для людей. Но одним только качеством сайт, как правило, не раскрутить. Сайт надо рекламировать всеми доступными способами, но и это сегодня не является панацеей. Можно зарегистрировать ресурс в каталогах. Можно рекламировать его на форумах, на чьих-то блогах. Кроме того, можно ставить просто ссылки на него (без рекламы) из гостевых книг, и так далее и тому подобное. Но эффект от этих действий в большинстве случаев будет кратковременным. А вот если начать продвигать сайт в поисковиках - это совсем другое дело.

Что такое поисковые системы – знает каждый. И каждый знает минимум две самые мощные в мире поисковые системы – это, конечно же, Гугл и Яндекс. Если добиться того, чтобы страницы сайта попали в топы этих поисковых систем по множеству самых разных запросов, то о достаточно большом количестве можно не беспокоиться до самого конца жизни сайта. Естественно, если вы не нарушите правила поисковых систем, в противном случае сайт будет исключён из выдачи, перестанет индексироваться, и потоку посетителей придёт конец. Но не будем забегать вперёд – мы подразумеваем, что никаких нарушений правил не будет. Задача состоит в том – как продвинуть побольше страниц нового сайта в топы выдачи поисковых систем по множеству запросов?

Существует такая неофициальная наука, называется «СЕО-оптимизация сайта». Эта наука подразумевает собой перестройку сайта таким образом, чтобы он соответствовал правилам и рекомендациям поисковых систем не только по основным параметрам, но даже в мелочах. Профессионалы с этой задачей справляются прекрасно, а вот новички не знают основной части не то что мелочей, но и основных требований поисковых систем к сайтам. А те, кому кажется, что они знают, всё равно не умеют правильно сайт адаптировать. Тем не менее, существует несколько правил, которые, если их неукоснительно соблюдать, позволят любому новичку получать из поисковых систем столько трафика, сколько хватит у новичка терпения и усидчивости.

Итак, первое правило заключается вот в чём. Продвигаемый сайт должен быть обязательно многостраничным. И многостраничность эта заключается не в сотне-другой страниц, а измеряется тысячами. Понятно, что быстро сделать для сайта тысячи страниц вручную не получится. Однако для этого можно применить некоторые программы, которые могут производить страницы автоматически. Впрочем, об этом рассказано будет ниже, а вы должны уяснить, что залог успеха создания сайта заключается в многостраничности. Это, конечно, не главное правило, но очень важное, которое надо иметь в виду в самую первую очередь.

Второе правило – это использование для раскрутки сайта малоконкурентных ключевых фраз. Возможно, это правило главнее того, которое было озвучено выше, но без неукоснительного соблюдения правила первого это правило работать не будет, как и наоборот. В общем, будем считать, что это два самых главных правила, и какое из них важнее – определить не представляется возможным.

Однако есть и третье правило. Если соблюдение первых двух правил может обеспечить первоначальное продвижение страниц сайта в топы поисковых систем, то раскрутка сайта в целом без него невозможна. Дело в том, что если сайт будет не интересен посетителям, то долго он не продержится не то что в топах, но и в выдаче. Поисковые системы, особенно Гугл, прекрасно умеют отслеживать поведение посетителей на любых сайтах, у них имеется для этого большое количество возможностей. Особенно это касается сайтов, которые находятся в базе поисковых систем. Поисковая система судит о качестве сайта именно по движениям, которые совершают на сайте пользователи, перешедшие на него из выдачи, и поэтому становится ясно – если сайт не интересный для людей, значит, и поисковые системы потеряют к нему интерес, и очень быстро исключат из выдачи.

Итак, рассмотрим каждый пунктов более подробно, и начнём со второго – использование не конкурентных ключевых фраз. Любому, даже самому неопытному новичку должно быть понятно, что по высококонкурентным фразам продвинуть страницы сайта в топы выдачи не в силах даже большинству профессионалам. Таким продвижением занимаются целые коллективы специалистов, получающих за это большие деньги. А вот малоконкурентными ключевыми фразами не занимается практически никто. То есть отдельно каждой фразой НЧ (низкочастотник) конкретно никто не занимается, то есть страницы по нему не продвигают целенаправленно как раз из-за и мизерного количества трафика по такой фразе. Конечно, есть специалисты, которые продвигают сайты по большим группам НЧ, но с такими профессионалами можно легко бороться как раз из-за отсутствия контроля с их стороны. К тому же таких специалистов мало, в основном профессионалы уходят в ВЧ (высокочастотники), где новички для них не конкуренты.

Вы спросите – а какой толк в ключевиках НЧ, если на них идёт очень мало трафика? Конечно же, вопрос правильный, но неправомерный. Дело в том, что необходимо работать сразу с большими группами таких ключевых фраз. Каждая из них, допустим, может привлечь из выдачи на страницу одного посетителя в день, но вот тысяча их может привлечь 1000 посетителей. А 10 тысяч ключевых фраз – 10 тысяч посетителей. Конечно, цифры эти усреднённые, какие-то «ключи» могут вообще трафика не дать, но какие-то могут собирать и по 5, и по 10 посетителей в день, а то и больше. Таким образом, мы плавно переходим к пункту первому – многостраничность сайта.

Как правило, каждая страница веб-ресурса должна «затачиваться» под какую-то определенную ключевую фразу. Некоторые умельцы умудряются «затачивать» сразу под несколько, таким образом, та или иная страница может появляться в топах выдачи поисковой системы сразу по нескольким запросам, привлекая по каждому свою порцию посетителей. Чем больше страниц содержит сайт, тем больше «кеев-НЧ» начинают работать и привлекать трафик. Арифметику мы уже приводили, и работает она в случае многостраничных сайтов по «НЧ-кеям» безукоризненно, можно даже сказать, что это не закон математики, а настоящий закон природы. Но вот тут мы опять сталкиваемся с проблемой быстрого создания сайта. И не абы какого, а самого качественного, интересного посетителям практически по всем параметрам.

В общем, всё тут проще пареной репы, как говорится. Сначала мы создаем сайт, то есть по всем правилам, но не пытаемся его как-то особенно оптимизировать под поисковые системы. Просто делаем сайт таким, каким он вам самому бы понравился, и ставим на него те материалы, которые вам самому интересны, и которые бы, по вашему мнению, были интересны и посетителями. С ключевыми фразами мудрить не надо, просто статьи на сайт ставьте побольше размерами, а нужная плотность ключевых фраз на странице сама «утрясётся». Статьи лучше всего брать с хороших сайтов, а хорошие сайты, как правило, находятся по высококонкурентным фразам на первых позициях в выдаче. Такие статьи, как правило, уже хорошо «заточены» под поисковые системы своими владельцами, так что дополнительная оптимизация только повредит. Правда, тут существуют два условия.

Условие первое: ищите такие статьи, которые бы не встречались на других сайтах кроме того, с которого вы их будете брать. Справиться с этой проблемой можно легко: возьмите из статьи несколько фраз и вбейте их в строку поиска Гугла или Яндекса (лучше Гугла), и вы увидите, на каких сайтах ещё эта фраза (статья) присутствует. Если статью больше никто не «стырил», то её можно брать. Если же она встречается на многих других сайтах, то толку от такой «растиражированной по интернету» статьи будет мало.

Условие второе: никогда не воруйте статьи, копируйте их только с тех сайтов, которые разрешают перепечатку в обмен на обратную ссылку. И, конечно же, никогда не забывайте ставить «обратку», иначе будет считаться, что вы статью украли, и тогда отношение к вашему сайту будет негативным даже со стороны поисковых систем. Дело в том, что Гугл и Яндекс придают особое значение обратным ссылкам на сайт, откуда заимствованы статьи. Так что смотрите не прогадайте. Пожадничав, вы можете провалить всё дело, особенно если статей будет много, а «обраток» - мало или их вообще не будет.

Итак, вы занимаетесь созданием сайта. Делайте так много страниц, насколько у вас хватит терпения, но не меньше сотни. А вот теперь настала пора внедрить в этот сайт несколько тысяч страниц, которые лучше сделать в автоматическом режиме. Последовательность наших действий будет такой:

Для начала надо собрать достаточно большое количество ключевых фраз по теме нашего сайта. Для этого можно воспользоваться совершенно бесплатной версией парсера ключевых фраз Яндекса – «Магаданом». Определите список слов, по которым вы будете парсить, и приступайте к работе. Фраз надо собрать много, потому что от количества фраз, по которым будут генерироваться страницы и под которые они будут «затачиваться», будет напрямую зависеть количество трафика.

Затем идём на любой «вебмастерский ресурс» (можно быстро отыскать поиском в Гугле) и пробуем скачать с него бесплатную версию какого-нибудь дорогенератора. Как явствует из названия, эта программа предназначена для массового производства дорвеев – многостраничных сайтов, использующих так называемый «клоакинг». Однако нам дорвеи не нужны, мы просто воспользуемся этой технологией, и ничего больше.

Перед генерацией следует подготовить шаблон – по этому шаблону будет производиться генерация страниц. Шаблон берём с основного сайта, чтобы обе его части не отличались друг от друга по дизайну, и визуально походили на одно целое. В шаблоне расставляем макросы ключевых фраз: 5-6 макросов «ключевика страницы» в разных местах (включая и заголовок страницы) и 20-30 макросов «случайных фраз», которые будут браться из общего списка ключевиков рандомно, то есть наугад.

В центре каждой страницы должен стоять большой и красочный баннер, нажав на который, посетитель попадает на шапку сайта, то есть на его главную страницу. На баннере крупными буквами должно быть объяснено, почему именно посетитель должен на него кликнуть. Ведь разные страницы «заточены» под совершенно разные ключевые фразы, каждая страница выходит в топ выдачи именно по своему «ключу», и каждый запрос делается посетителем, желающим увидеть конкретную информацию по своему запросу. А что он увидит, зайдя на сгенерированную страницу? Он, по меньшей мере, не увидит того, зачем на вашу страницу пришёл, так как кроме ключевиков на ней не больше никакой информации (если, конечно, считать ключевики хоть какой-то информацией). Но зато посетитель увидит баннер, на котором написано, например, что произошла досадная ошибка, и в поисках нужной ему информации он должен перейти на главную страницу сайта.

Конечно, скорее всего нужно информации он не найдёт и на сайте, однако если ваш сайт по-настоящему хорошо, то посетителя можно заставить забыть о его запросе и заинтересоваться другими темами, которые представлены на сайте. Конечно, много посетителей уйдёт, зато те, которые на сайте останутся, несмотря на то, что их так незатейливо обманули, станут реальными клиентами вашего сайта и проведут на нём достаточно времени, чтобы поисковая система определила ваш сайт как хороший, интересный, достойный находиться в выдаче. Кстати, можно добиться и того, чтобы с сайта вообще никто не уходил, но это уже совсем другая тема, чисто техническая, и потребует приложения достаточно больших творческих усилий.

После того, как мы полностью создали сайт и залили его на хостинг, необходимо сделать так, чтобы он начал индексироваться поисковыми системами. Для этого надо поставить ссылку на него с какого-нибудь проиндексированного поисковыми системами веб-ресурса, а ещё лучше – с нескольких. Это нужно для того, чтобы на сайт попали поисковые роботы и начали его индексировать, а потом занесли в базы поисковых систем. Самый удобный вариант для новичка – это зарегистрировать сайт в каких-нибудь крупных каталогах. Подойдут такие, как Хот Лог, Спай Лог, Рамблер, Майл Ру и некоторые другие. Если ваш сайт по-настоящему хорош, то эти каталоги с радостью примут его в свой листинг. Можно попытаться поискать и другие источники ссылок, например, «жирные» форумы и блоги, годятся даже гостевые книги.

Таким образом, мы видим, что та схема, которую мы только что озвучили, способна работать и без какой-либо профессиональной оптимизации сайта под поисковые системы. Главное тут – не сделать фатальных технических и логистических ошибок. Ни в коем случае нельзя расставлять на страницу слишком много копий какой-либо фразы, 5-7 раз хватит с головой. С этой точки зрения лучше меньше, чем больше. Если «переборщите», то поисковая система может быстро исключить сайт без поиска. Если «не доварите», то просто будет меньше трафика, но эту проблему можно решить постоянным добавлением новых страниц. Так что, как говорится, из двух зол выбирают именно то, последствия которого можно уменьшить, если не лениться и делать всё, используя не только теоретические знания, но и творческий подход.


Перейти к списку