Сегодня глобальная сеть Интернет стала подобна тому физическому пространству, в котором живем мы с вами. Наверняка среди ваших знакомых есть «маньяки», которые давным-давно переселились в Интернет и находят там все необходимое для жизни. Работу, чтобы зарабатывать на жизнь, газеты и журналы, чтобы почитать, компьютерные игры, музыку и кинофильмы, чтобы отдохнуть и развлечься, электронные деньги и магазины и т. д. Только изредка они появляются в обычном мире, да и то лишь для того, чтобы поесть и в очередной раз убедиться, что в офлайне жизни нет.
К счастью, большинство людей пользуются Интернет в разумных пределах. Число его пользователей растет из года в год. Путешествуя по просторам Всемирной сети, они могут рано или поздно набрести на сайт, посвященный вашему бизнесу и, возможно, стать вашими новыми покупателями, потребителями ваших услуг, деловыми партнерами или сотрудниками. Важно лишь сделать так, чтобы поданная вами информация, во-первых, была привлекательна, а во-вторых, легко находилась в Сети. В рамках данной статьи мы постараемся дать ответ на вопрос, как достичь второй цели, то есть, повысить видимость вашего ресурса в сети.
Что такое поисковые системы
Многие из нас не раз озадачивались проблемами поиска необходимых данных в сети Интернет. Сегодня глобальная сеть стала одним из важнейших средств массовой информации, и в качестве таковой призвана давать своим пользователям прежде всего именно информацию. Но проблема заключается в том, что ее глобальный характер сильно затрудняет процесс поиска нужного среди всех этих непостижимых объемов всевозможных данных, охватывающих самые разные сферы деятельности и интересов населяющих планету индивидов. Ведь никогда не узнаешь, что скрывается за названием того или иного веб-сайта, не посетив его. Кроме того, количество ресурсов, заполнявших огромное пространство на этапе быстрого развития Интернет, стремительно росло, причем многие из них были, да и сейчас остаются весьма похожими друг на друга. Требовалось найти надежный и быстрый способ значительно упростить процесс поиска в Сети, в противном случае само существование Интернет потеряло бы всякий смысл. Поэтому практически с самого рождения Интернет (во всяком случае, в современном его понимании*) были разработаны и запущены в Сеть так называемые поисковые машины (search engines).
Немного истории
Развитие поисковых систем в самом начале было весьма бурным, и создавали их все кому не лень. «Дедушкой» всех поисковых машин была система Archie, созданная в 1990 году Аланом Эмтажем (Alan Emtage), студентом McGill University Монреаля. Спустя три года University of Nevada System Computing Services запускает другой поисковик Veronica. Эти поисковики создавали базы данных существующих в сети файлов. Однако они вскоре перестали справляться с быстро растущим количеством файлов, и на смену им пришли другие.
World Wide Web Wanderer — первый автоматизированный робот — и ALIWEB — первый аналог веб-каталогов, заполняемых сайтовладельцами или редакторами, были разработаны уже осенью 1993 года. И, наконец, в том же году появились первые «пауки»: JumpStation, World Wide Web Worm и Repository-Based Software Engineering **- прародители современных всем известных поисковиков, таких как Google или Yahoo.
Российские разработчики тоже не отставали от своих западных коллег. В середине 90-х наша аудитория интернета еще только формировалась и была вынуждена пользоваться поисковыми системами, не понимавшими по-русски. Для них в 1996 году в небольшом подмосковном городке Пущино группа программистов под руководством Дмитрия Крюкова создала первую в России поисковую программу Рамблер, которая сразу же была запущена в эксплуатацию. Находясь по неизменному с тех пор адресу в Сети rambler], она и по сей день является одним из самых популярных поисковиков среди пользователей Интернет.
Через год аудитория русского интернета приветствовала появление поисковой машины с маркой Яndex. Опыт разработчиков компании CompTek, полученный в результате многолетней работы с поисковыми технологиями, благодаря чему были созданы небольшие подобные «машинки», помог реализовать систему поиска с учетом русской морфологии.
Поисковые машины сегодня
Современные «искалки» делятся на две большие группы — поисковые машины и каталоги. Первые обходят веб-страницы и сохраняют их копии в индексе, чтобы потом выдать список найденных ресурсов в соответствии с запросами пользователей. Во вторые веб-сайты добавляются либо самими сайтовладельцами, либо редакторами каталогов. Если уж быть совсем точными, большинство современных поисковиков относятся к смешанному типу, то есть дополняют результаты поиска по базе данных, собранной «пауками», данными из каталогов по категориям.
Как работают поисковые системы
Все поисковые машины состоят из трех основных частей. Первая — так называемый «паук» или «червяк» — постоянно «ползает» по всему веб-пространству, следуя многочисленным ссылкам как в пределах одного сайта, так и с одного сайта на другой. «Паук» считывает содержимое всех страниц и передает эти данные гигантскому централизованному хранилищу своего поисковика (называемому также индексом).
Индекс является второй из трех упомянутых составных частей поисковой машины.
Третья, самая сложная составляющая системы — алгоритм поиска, тот самый механизм, который, за несколько секунд отсортировав необозримую базу данных, выдает нам искомую страничку со ссылками на ресурсы, которые он счел соответствующими нашему запросу (релевантными). Наиболее релевантные ресурсы оказываются наверху списка, и именно они, скорее всего, окажутся просмотренными тем пользователем, который воспользовался услугами данного поисковика. Поэтому каждый сайтовладелец должен стремиться к тому, чтобы поисковая машина посчитала именно его ресурс наиболее релевантным тем ключевым словам, по которым его мнению, его будут искать.
Алгоритм определения релевантности — свой для каждого поисковика — охраняется владельцами поисковой машины как самый большой коммерческий секрет. Однако, существуют некоторые принципы, общие для всех, и о них мы расскажем в следующей главе.
Как сделать так, чтобы вас находили через поисковые системы
Чтобы большинство поисковых машин сочли именно ваш ресурс наиболее подходящим для включения в первую десятку релевантных ссылок, нобходимо следовать нескольким несложным правилам.
Правило № 1. Работайте над текстом.
Текст (или контент) каждой странички вашего сайта — это тот материал, на основании которого поисковая машина делает вывод о том, чему посвящен ваш сайт. Конечно, она не может проанализировать содержание этого текста, как это делаем мы с вами. Но это не важно. Главное — присутствие в тексте определенных ключевых слов, которые программа сможет найти и сопоставить с запросом поиска. Чем чаще эти слова встречаются в вашем тексте, тем больше вероятность, что вашу страничку посчитают достойной стоять наверху.
Еще больше можно повысить значимость ключевых слов, если включить их в
заголовок html-страницы (тег <title>), в подзаголовки разделов (теги <h1>-<h6>),
в гиперссылки (тег <a>) или просто выделить полужирным шрифтом (теги <b> или <strong>).
Мета теги <meta name=»Keywords» content=»your keywords»> и <meta name=»Description»
content=»your description»>, специально введенные в свое время как помощь
поисковым машинам, сейчас стремительно теряют свое значение, поскольку ими часто
злоупотребляют. Однако, для российских поисковых машин они по-прежнему важны.
Следует учитывать, что алгоритмы работы поисковиков постоянно совершенствуются, а индексы обновляются, поэтому, завоевав определенные позиции в листингах, не останавливайтесь на достигнутом. Оптимизация сайта под поисковики должна стать постоянной заботой каждого сайтовладельца, рассматривающего присутствие в веб-пространстве как важную часть своего бизнеса.
Правило № 2. На ваш сайт должны ссылаться.
Как мы уже отмечали ранее, «паук» индексирует веб, следуя за ссылками, которые владельцы сайтов размещают на своих страничках, тем самым давая понять посетителям своих ресурсов, что там-то и там-то они могут найти что-то интересное. Поэтому, чем больше обитателей веба пожелают сообщить о вас, тем быстрее вас найдут все существующие поисковики. Более того, страницы, на которые ведет больше разных ссылок, рассматриваются поисковиками как более важные. Яndex реализует это положение через концепцию «Индекса цитируемости», Google — через так называемый Page Rank, другие поисковики используют другие алгоритмы анализа популярности вашего сайта. При этом важно помнить, что ссылка с сайта, имеющего высокий рейтинг в сети и близкого вашему сайту по тематике, ценится гораздо выше, чем просто какая-нибудь ссылка. Отсюда вытекает
Правило № 3. Действуйте честно.
Не ввязывайтесь в игры с поисковыми машинами, направленные на явный обман. Сюда входят следующие методы, часто используемые недобросовестными веб-мастерами.
Спам. Допустим, сайтовладелец хочет сделать свою страницу очень-очень релевантной по определенной ключевой фразе. Очевидно, что он постарается, чтобы эта фраза упоминалась как можно чаще. Когда это переходит в неестественно частое ее употребление (то есть когда плотность ключевой фразы — keyword density — превысит норму) — это уже разновидность спама (keyword damping). Такая страница будет выглядеть подозрительно для поисковой машины и не принесет никакой пользы читателю. Однажды оказавшись на такой странице, пользователь Всемирной сети едва ли захочет вернуться на нее снова.
Некоторые веб-мастера, надеясь обмануть поисковик, идут еще дальше, делая текст, предназначенный для поисковой машины, невидимым (совпадающим или едва отличимым от цвета фона) или настолько мелким, что прочесть его невозможно (1-2 пикселя в высоту). Современные поисковые машины умеют отслеживать подобные трюки, поэтому заниматься этим мы вам не советуем. Вы можете выиграть на короткое время, но затем проиграть в более долгой перспективе, так как многие поисковики наказывают за спам понижением рейтинга или исключением из индексов и каталогов.
Сети обмена ссылками (link farms). Многие владельцы сайтов, стремясь искусственно повысить свою популярность в Интернет, объединяются в сети, где все ссылаются на всех, стремясь лишь к количеству ссылок и не заботясь об их качестве. Это малоэффективный метод. Во-первых, страница, содержащая слишком много ссылок, передает каждому сайту, на который ссылается, лишь ничтожно малую часть своего авторитета. Во-вторых, такая страница, как правило, уже не содержит никакого другого контента и, следовательно, ее авторитет изначально невысок. Кроме того, в последнее время качество ссылок анализируется поисковыми машинами прежде всего с точки зрения степени родства тематики сайтов, ссылающихся друг на друга. Если сайты посвящены сходным или взаимосвязанным проблемам, ссылка считается качественной. Поэтому при обмене ссылками с другими сайтовладельцами, стремитесь искать партнеров среди компаний, занимающихся похожими проблемами. Идеальными объектами для обмена ссылками являются сайты ваших деловых партнеров или информационные порталы, посвященные вопросам вашей отрасли.
Cloaking. Так называют распространенную технологию обмана поисковых машин, когда роботы-пауки опознаются по IP-адресу или по имени хоста, и вместо нормальной страницы, предназначенной для пользователя, им «подсовывается» специально оптимизированная под поисковик, но совершенно нечитабельная страница. Борясь с такими трюками, поисковики иногда приходят «под чужим именем», маскируясь под обыкновенного посетителя и с никому не известного IP-адреса. Также широко используется метод сбора отзывов от пользователей, обнаруживших, что страница, которую они нашли при помощи поисковика, не соответствует заявленному содержанию. Когда отрицательных отзывов накапливается слишком много, подозрительная страница может быть пересмотрена персоналом компании, владеющей поисковой машиной. И если способы, используемые веб-мастером, признаются неэтичными, сайт может быть полностью исключен из индекса данного поисковика.
Правило № 4. Сайт должен быть содержательным.
Чем больше страниц содержит ваш сайт, чем более интересна информация, размещенная на этих страницах, тем выше вероятность того, что на вас будут охотно ссылаться. Наличие интересных статей, новостей об актуальных проблемах вашего бизнеса, привлечет на ваш сайт широкую аудиторию посетителей, сделает ваш сайт известным и заметным явлением в сети. Если о вас узнают и заговорят, успех в продвижении вашего бизнеса в Интернет будет почти гарантирован. А сайт начнет раскручивать сам себя.
Важно также следить за тем, чтобы сайт был хорошо структурирован, правильно разбит на категории и, как следствие, удобен для пользователя. Каждая страница должна быть легко достижима с главной, причем желательно через обычные текстовые ссылки. Такой удобный сайт люди захотят посещать снова и снова, а поисковый робот не испытает трудностей при индексировании всего контента, переходя по ссылкам от одной страницы к другой. Если же ваш сайт насыщен яркой, броской графикой, и все ссылки сделаны «картинками», их следует продублировать как текстовые в нижней части каждой странички. Так будет удобнее любому посетителю, независимо от того, человек это или программа-робот.
Немного о платных методах раскрутки
Pay-per-Click.
В качестве дополнительного способа продвижения вашего сайте в вебе можно использовать платные кампании. Некоторые «искалки», например, Google или Overture, предоставляют возможность участия веб-сайтов в платном листинге (sponsored listing), который имеет приоритет перед всеми остальными веб-сайтами, стоящими в том же списке (additional или editorial listing).
Сайтовладелец или организация, которая занимается профессиональной раскруткой его сайта, составляет список ключевых фраз, по которым, как ожидается, будут вести поиск пользователи, зантересованные в сайтах похожей тематики. По каждой ключевой фразе необходимо сделать ставку (bid).
Оплачиваются лишь переходы на данный сайт с поисковика, то есть клики (click). Сумма оплаты зависит от ставки, заявленной для каждой ключевой фразы. Первым в списке всегда окажется тот сайт, чей ваделец сделал максимальную ставку, вторым — заявитель второй по размеру ставки, и т.д. Кампанию платной раскрутки необходимо тщательно планировать, подбирая ключевые фразы таким образом, чтобы получить максимальную отдачу при минимальных затратах средств. Для этого требуется постоянный мониторинг и анализ хода платной кампании. Если вы не уверены в своих силах, лучше привлечь к такой работе опытного Интернет-маркетолога или фирму, специализирующуюся на раскрутке сайтов.
Платные директории.
Наряду с каталогами и директориями, за регистрацию в которых не берут денег и лишь требуется, чтобы на сайте отсутствовал неэтичный контент, существуют и платные директории для бизнес-ресурсов, например, Open Directory или Inktomi.
Редакторы платных директорий могут предложить вам помощь в грамотном составлении описания вашего сайта, а также посоветовать, в какой именно раздел директории его следует занести, чтобы пользователю было легче его найти.
Однако в случае, если содержание сайта не соответствует заявленному или правилам, установленными администрацией данной директории, вас не допустят к регистрации и не вернут предварительный взнос за включение (set-up fee) в директорию.
Многие крупнейшие западные поисковики, а также «искалки», не имеющие собственных каталогов, «кормятся» результатами поиска как в бесплатных, так и в платных директориях. Кроме того, наиболее популярные и объемные директории регулярно посещаются сотнями тысяч пользователей, которые могут стать вашими потенциальными клиентами.
Ссылки на ваш сайт со страниц каталогов окажутся наиболее ценными и для поисковой машины, потому что эти страницы очень популярны в веб-сообществе. Их рейтинги, таким образом, являются наиболее высокими вследствие большой посещаемости и многочисленных ссылок на них с других веб-сайтов. Отсюда, чем в большем количестве каталогов содержится ссылка на ваш сайт, тем выше его статус в индексах поисковых машин.
Рекламные кампании в Интернет.
Крупные поисковые порталы и рекламные компании предлагают размещение рекламы вашего бизнеса в Интернет и при этом предоставляют весьма обширный выбор рекламных пакетов.
Современные Интернет-технологии позволяют так провести рекламную кампанию, как это не получится сделать с помощью какого-либо другого средства. Оговорив в заказе необходимые условия показа рекламы, вы можете добиться едва ли не 100%-ного «попадания» в свою целевую аудиторию.
Показ баннеров или ссылок только по ключевым словам поиска, показ только пользователям определенного региона и в определенное время (географический и временной таргетинг), размещение рекламы в разделах каталогов и относительно невысокая стоимость — вот далеко не полный перечень возможностей при размещении рекламы в Сети. Такая гибкость в сочетании с относительно невысокой стоимостью рекламных пакетов и (повторимся) известным фактом, что аудитория Интернет непрерывно растет, заставляет рассматривать Всемирную сеть как наиболее перспективную площадку для рекламы своего бизнеса. Если вы еще не задумались над этим, задумайтесь сегодня.
Итак, как вы успели заметить, само по себе создание веб-сайта, как и просто основание фирмы, не гарантирует успеха организации. И то, и другое требует дополнительных усилий для продвижения, создания условий, при которых ваша фирма, бренд или веб-сайт станут не только узнаваемыми, но и популярными, притягивающими к себе большое количество потребителей.
Мы рассказали вам о большинстве способов продвижения вашего бизнеса с помощью технологий, применяемых во Всемирной сети для облегчения поиска необходимых пользователям ресурсов. Разумеется, большое число алгоритмов поиска в сети, под которые следует оптимизировать веб-сайты, и необходимость серьезной подготовительной работы, может напугать сайтовладельцев. Поэтому, если вы чувствуете, что сами не сумеете справиться с подобной задачей, но очень хотите добиться хорошего результата при приемлемых затратах, вам следует обратиться к специалистам в области Интернет-промоушена. Это позволит добиться высоких позиций в каталогах и результатах поисковых машин и, как следствие, роста посещаемости и притока клиентов вашего бизнеса.
* До появления протокола HTTP (примерно 1989-1991 г.г.) Интернет представлял собой огромную сеть FTP-серверов, через которую пользователи могли обмениваться файлами. Веб-сайтов в современном понимании в то время не было и не могло быть. Поэтому первые поисковики, о которых идет речь в статье, были также приспособлены к работе через FTP или другие подобные протоколы. Только после того, как Тим Бернерс-Ли (Tim Burners-Lee) создал HTTP-протокол и WWW (World Wide Web), слово Интернет приобрело свой сегодняшний смысл.
Источник: