продвижение страниц

СЕО (SEO – SearchEngineOptimization) заключается в том, чтобы разместить свой сайт среди первых результатов, отображаемых в поисковых системах, для популярных ключевых слов, связанных с тематикой нашего сайта. В целях увеличения числа посещений пользователей, попадающих на сайт из поисковых систем, необходимо оптимизировать или создать много внутренних (структур сайта) и внешних (базы ссылок) элементов.

Оптимизация сайта будет касаться многих аспектов и будет иметь место на различных стадиях изготовления сайта, а так же после ее завершения. Поэтому подготовка соответствующей стратегии должна быть еще до начала строительства сайта, это может сэкономить многое в более поздних изменениях. План SEO должен определять все этапы оптимизации, начиная от ключевых слов и фраз, установленной кодировки страницы, чтобы оптимизировать сайт для поисковых систем и заканчивая созданием базы ссылок для уже существующего сайта для продвижения в сети Интернет.

 

SEM – SearchEngineMarketing,. Это маркетинг в поисковых системах, как правило рекламная деятельность, которая использует потенциал поисковых систем в достижении, интерес и привлечение Интернет-пользователей, как потенциальных клиентов. Поисковая система в данном случае выступает каналом коммуникации: выдача рекламы происходит на страницах результатов поиска для определенных ключевых фраз.

 

Продвижение в поисковых системах может осуществляться с помощью раскрутка сайта (SEO).

– SearchEngineOptimization – присутствие в естественных результатах поиска или с помощью компаний с платными ссылками (Paidsearch, Paidlistings), то есть разного рода ссылки и боксами авторов, которые выкупаают на ведущих/выделенных местах страниц результаты для запроса данных слово или фраз.

SEO может сделать для компании много хорошего, но репутацию в индустрии SEO перерезали некоторые поставщики, ведущие агрессивные маркетинговые шаги и пытаются неэтичным способом манипулировать результатами поиска. Действия, которые  несовместимы с нашими правилами техники безопасности могут привести к удалению Вашего сайта из индекса Google.

 

ПОЧЕМУ SEO ВАЖНО.

Большое количество трафика приходит на сайт из больших коммерческих поисковых систем таких, как Google и Yandex. Помните, что в Интернете много покупок и транзакций, это  можно сделать благодаря прибытию в компании в поисковые системы.

Статистика поисковых систем.

Если сайт нельзя найти через поисковую систему, значит он теряет возможность добраться до пользователей. Так же важны не только случайные пользователи, но и те, кто ищет именно то, что вы предлагаете. Независимо от этого, страница предлагает информацию, услуги или продукты. Поисковые системы являются основным и легко доступным способом для привлечения пользователей.

 

Основным преимуществом места положения является появление ссылки на Ваш сайт в поле зрения пользователя – это увеличивает шансы его перехода (даже в отношении ссылок, размещенных в блоке рекламы) на Ваш сайт. Быть на первой странице в Google говорит о  престиже Вашей компании в глазах пользователей, по отношению к другим компаниям находящимися на дальних позициях. Позиционирование в отличии от платной рекламы, позволяет при низких затратах достичь удовлетворительных результатов, которые влияют на привлечение новых клиентов. Кроме того с помощью уже имеющихся инструментов таких, как Googleanalytics, мы можем отслеживать действия пользователя на сайте. Полученные таким образом данные можно подвергнуть анализу, который облегчит нам создание соответствующих путей успеха (управление для первого контакта с компанией) для посетителей Вашего сайта.

 

ИСТОРИЯ И СПОРЫ SEO.

История поисковых систем и оптимизации.

Позиционирование и оптимизация сайтов начались с появлением первых поисковых систем. Веб-мастера стремились к тому, чтобы их сайты появились первыми в результатах поиска для данного ключевого слова которое Вы вводите в поиске. Изначально это было не сложно так, как результаты в поисковых системах основывались на анализе ключевых слов, приведенных автором в заголовке страницы, в мета тегах. Позже из-за манипулирования ключевыми словами, поисковые системы стали игнорировать их, обращаясь непосредственно к содержимому страницы.

Эволюция поисковых систем вызвала развитие позиционирования, проходящего через все алгоритмы: бинарный и векторный анализ контента страницы. Только поисковые системы, основанные на анализе топологии сети, ведут подсчет ссылок (например Google), подняли уровень сложности позиционирования страниц.

Споры.

Спам – споры в позиционировании сторон вытекают из способов получения ссылок, ведущих на сайты и другие неэтичные методы, используемые в Seo, их принято называть спамом поисковых систем. Спам в поисковых системах рассматривается, как почтовый спам, т.е электронные сообщения, которые массово рассылаются людям. В поисковых системах созданы специальные страницы, где можно сообщить о сайтах, которые используют неэтичные методы позиционирования.

 

Неэтичные методы позиционирования (от англ. blackhat) – в связи с огромным интересом положения страницы в результатах поиска, стали использовать различные методы позиционирования, которые не принимают создатели поисковых систем или те, которые не совместимы с рекомендациями для формирования сайта так, как они “засоряют” результаты поиска. Методы, которые стали называть неэтичными:

-большое скопление ключевых слов;

-ключевые слова несовместимы с содержанием;

-скрытие ключевых слов: использование текста, цвет фона, размещение на незаметном элементе или  месте – обычно не просматриваемым пользователем;

cloaking (от англ. cloak – плащ) – подавать роботам известных поисковых систем специальные Веб-версии сайта;

-выявление применения таких методов может принести обратный эффект – полное удаление сайта из результатов поиска (от англ. ban).

 

КАК РАБОТАЮТ ПОИСКОВЫЕ СИСТЕМЫ?

Двигатели поисковых систем постоянно совершенствуются для того, чтобы вернуть Вам наиболее подходящие результаты для запроса, но алгоритмы всегда будут каким-то образом ограничены. Хорошая оптимизация может привлечь внимание тысяч пользователей, но неправильное продвижение может похоронить сайт на дальних местах в поисковых системах так, как  его видимость будет минимальной. Интернет-среда становится все более конкурентно способной, в ней продолжается непрерывная борьба за пользователя. Сайты, которые делают упор на позиционирование имеют больше шансов, чтобы выиграть эту борьбу. Двигатели поисковых систем выполняют операции, которые позволяют пользователю достичь соответствующих результатов используя эти системы для поиска информации.

Боты и пауки.

Поисковые системы используют автоматизированные программы, так называемые «боты» или «пауки», они используют тросы структуры сети для того, чтобы посещать сайты и документы, которые составляют Веб -сайт. Самые популярные пауки это GoogleBot, YandexBot, и YahooSlurp. Предполагается, что в сети есть около 20 триллионов сайтов, в которых алгоритмы поисковых систем посетили около 8-10 трлн людей.

Индексация.

Когда сайт будет посещен ботом, его содержание может быть проиндексировано. Это означает, что его содержание сохраняется в гигантской базе данных всех документов, она создает индекс поисковой системы. Этот индекс управляется очень бережливым образом, чтобы запросы  требующие поиска и сортировка триллионов документов могли быть проведены в доли секунд.

Обработка запросов.

Когда запрос и информация попадает в поисковые системы, двигатель вытягивает из базы все документы, которые соответствуют Вашему запросу. Если документ содержит текст, который поисковая система определяет его, как соответствующий результат.

Рейтинг результатов.

Когда поисковая система определяет документы, которые соответствуют условиям запроса, в действие вступает алгоритм сортировки. Это математическое уравнение, которое выполняет определенные расчеты на каждом из возвращенных документов, чтобы определить, какой из них наиболее подходит для данного запроса. Отсортированные по релевантности документы отображаются на сайте в порядке от наиболее до наименее подходящего, после этого пользователь получает выбор. Системы таких двигателей, как Google, Yandex и Yahoo, являются одними из самых сложных и интенсивно обрабатываемых персональных компьютеров в мире, совершая миллионы вычислений в секунду, чтобы удовлетворить требования к информации запроса пользователей в сети Интернет.

 

АЛГОРИТМ ПОИСКА.

Современные коммерческие двигатели поисковых систем основываются на изучении и поиске информации. Эта наука существует с середины XX века, когда такие системы помогали поиску в библиотеках, научно-исследовательских учреждениях и лабораториях правительства. В начальной стадии развития этой сферы ученые поняли, что правильность функции поиска основывалась на двух важных компонентах:

 

Соответствие / адекватность – степень в которой содержимое возвращаемых документов, отвечало запросу пользователя с точки зрения намерений и условий.

Популярность измеряется на основе количества ссылок или цитат (в академических кругах и бизнесе  часто одна работа ссылается на другую). Каждый документ, который ссылается на другой, увеличивает его коэффициент популярности.

Много лет спустя оба эти свойства были перенесены к реалиям Интернета. Популярность сайта измеряется через двигатели поисковых систем, на основании числа посещений в течение определенного времени, а так же времени затраченного в течение посещения на данной странице. Позиционирование сайта для данного параметра заключается в, размещении текста в названии страницы и в ее описании, чтоб настоятельно призвать нажать на ссылку в результатах поиска и посещение сайта. Время нахождения пользователя на сайте, конечно же зависит от того, найдется ли на ней информация которую искал пользователь и, то насколько этот текст будет интересным для него. Чем чаще сайт будет посещаться пользователями  поисковых систем, тем больше времени они будут проводить на сайте, соответственно параметр популярности сайта в поисковой системе будет расти и тем выше сайт будет помещён среди последующих результатов поиска.

 

PageRank-это метод передачи индексирования сайтом определенного числового значения, обозначающие ее качество. На основе этого значения определяется «ранжирование» найденных страниц в результатах поиска для каждого запроса. Алгоритм PageRank был разработан основателей компании Google Ларри Пейдж и SergeyaBrina, во время их учебы в Стэнфордском Университете в 1998 году. PageRank является модификацией давно известной эвристики, согласно которой качество текста пропорционально количеству текстов, которые на него ссылаются. Авторами Google было предложено взвешивание суммы ссылок, указывающих на рассмотрение текст их собственным значением PageRank. Другими словами: если на этот текст ссылается статья, которая сама имеет высокую оценку – это  имеет большее значение, чем когда на один и тот же текст вызывает достаточно сомнительный сайт.

 

LINK POPULARITY.

Linkpopularity -это фактор, который в настоящее время очень сильно отвечает за высокий рейтинг в поисковых системах. Коэффициент linkpopularity определяется с помощью количества вызовов (количество входящих ссылок), ведущих на страницу с других страниц, а так же значения этих соединений.

Самый распространенный способ увеличения ссылочной популярности в Google  (увеличить PageRank) – это обмен ссылками между сайтами WWW. Это трудоемкий процесс, но один из самых надежных и эффективных. Важно так же, чтоб эти ссылки были на страницах, у которых  PageRank в Google в меру высокая, чтобы эти страницы содержали наименьшее количество ссылок, а особенно исходящих ссылок и главное, чтобы ссылки были окружены, как можно большим количеством текста, конвергентным с тематикой Вашего сайта, с которой мы связываем.

Двигатели поисковых систем при анализе документов проверяют, есть ли искомые фразы, которые находятся в соответствующих местах документа, как заголовок страницы, мета-теги, заголовки абзацев, текст или описания изображений. Предпринимают так же попытки измерения качества документа через сложные алгоритмы, которые покрыты строгой тайной, чтобы обеспечить объективность результатов поиска.

Анализ документов сочетает в себе сотни факторов, которые измеряются и фильтруются через алгоритмы. Каждому из этих факторов присваивается различный вес. На основе такого анализа поисковых систем, признают документы «скоринга» отображая по ее словам результаты.

Все ссылки обрабатываются одинаково? Нет! “Значение” ссылки зависит от сайта, на котором он расположен. То есть большое значение будут иметь ссылки на сайты, которые сами являются высокими в рейтинге поисковых запросов. Конечно те, которые ниже в поисковых системах имеют меньшее значение.

 

Поисковая система гораздо выше оценит ссылку с сайта стоящего очень высоко в рейтинге от любого другого не имеющего такого значения. В результате индикатор linkpopularity Вашего сайта имеющий несколько ссылок со станиц у которых высокий рейтинг, будет значительно выше, чем сайты  имеющие в несколько раз больше ссылок со страниц, которые оцениваются соответственно ниже.

 

ПРЕПЯТСТВИЯ ДЛЯ ПОИСКОВЫХ СИСТЕМ.

Некоторые типы навигации на Веб -страницах могут замедлить или полностью помешать двигателям поисковых системах добраться до содержимого страниц сайта. «Боты» поисковых систем полагаются только на гиперссылки, чтобы найти новые документы или вновь посетить те, которые могли измениться. Слишком сложные системы навигации и глубокие структуры сервисов могут быть блокировкой для переходов «ботов» поисковых систем.

Возможные препятствия для ботов:

URL -адреса с двумя или более динамическими параметрами, например http://www.url.com/strona.php?id=4&select=34rr&user=%JAN%. «Пауки» испытывают проблемы с индексированием таких сложных Веб -адресов так, как часто вызывают ошибки среди автоматических посетителей;

-страницы, содержащие более чем 100 уникальных ссылок на другие страницы Вашего сайта (боты могут не посетить все станицы)

-сайты требующие ID сессии или Cookie, чтобы активировать навигацию («боты» могут не получить необходимых элементов, несмотря на то, что браузер человеческого пользователя не имеет с этим проблем);

-сайт доступен только выбрав из выпадающего меню и нажав на кнопку;

-документы доступны только через функции поиска;

-документы намеренно заблокированы тегом meta<robots> или размещен на сервере файл robots.txt;

-сайты  требующие регистрации;

-страницы, которые автоматически перенаправляют пользователя без отображения их содержимого, может быть принят за спам и, как результат блокировка сайта;

-следует иметь в виду, что если на главной странице (большинство ботов начинает свой визит) отсутствие ссылок на странице, вполне вероятно, что она не будет проиндексирована поисковой системы. Очень полезным методом здесь будет создание карты сайта, содержащего список всех страниц и ссылок на них.

 

КЛЮЧЕВЫЕ СЛОВА.

Алгоритмы поисковых систем используют введенное пользователем слово или фразу для получения соответствующей информации из базы данных, а затем используют свои алгоритмы для того, чтобы совершить сортировку и отобразить её пользователю. Восстановление документов из базы данных не происходит только через точное совпадение искомых слов. Двигатель -поисковик использует базу знаний на языке так же он может проектировать интеллектуальные запросы. Например когда пользователь вводит текст для поиска «заместитель директора» поиск вернет результаты, содержащие слово «вице-президент», как документы которые он сочтет подходящими в случае такого запроса.

 

Определение ключевых слов -это критический момент процесса SEO. Без соответствующей стратегии в отношении слов и фраз поисковых запросов, все вложены усилия для оптимизацию сайта могут оказаться тщетными. Процесс выбора ключевых слов состоит из нескольких этапов:

-“мозговой штурм” – предсказание, какие слова потенциальный пользователь/клиент вводит в поисковой системе, чтоб найти информацию или услуги, которые предлагает данный сайт (включая разновидности грамматических слов, синонимов и даже орфографические ошибки);

-опросы среди пользователей – опрос потенциальных пользователей в определенной целевой группе может расширить список ключевых слов. Так же он может дать общую информацию о популярности отдельных слов или фраз;

-анализ информации из инструментов для исследования статистики поисковых запросов – есть инструменты Онлайн (WordstatYandex, GoogleAdwordsKeywordResearch), которые предлагают информацию о количестве пользователей, сканирующих специфическое слово или фразу. Соответствующее использование этих сведений позволяет очень точно определить преобладающие тенденции, а так же часто запрашиваемые фразы в этой области сайта.

-выбор ключевых слов – это следующий шаг. Он является создание массива, содержащего слова или ключевые фразы, которые будут ценными для Вашего сайта. Эти данные следует сопоставить с такой информацией, как соответствие каждого слова, чтобы разобраться, как сложно будет сайт продвигать данное слова. Есть инструменты, которые помогают оценить «трудность» каждого выбранного ключевого слова (SEOmozKeywordDifficultyTool);

-исследования и анализ полученных результатов –этот этап наступает после построения страницы. Он требует определенного количества времени для сбора данных. Аналитические программы такие, как Indextools, ClickTrack или описанный в далее GoogleAnalytics, могут измерить продвижение и активность сайта и определить наиболее эффективные источники, в том числе с перечнем ключевых слов. Анализ данных может показать необходимость изменения в предварительно выбранных ключевых словах.

Прежде чем начать создавать список ключевых слов, стоит задуматься о том, как этот продукт или услугу будут искать в сети Интернете. Каждый сегмент пользователей ищет товары и услуги в правильной для себя форме.

 

Google Adwords Keyword Research Tool.

Исследование правильности ключевых слов не должно ограничиваться лишь подсчетом количества посещений сайта. Интеллектуальный процесс анализа слов и фраз будет принимать во внимание так же следующие аспекты:

-показатель конверсии – процент пользователей которые ищут данные слова/фразы – выполнили цель (чтение статьи, заполнение анкеты, нажав на рекламу или в случае коммерческих сайтов покупку товара, совершение сделки);

-ожидаемое движение – это то, какое количество пользователей будет приходить с данного слова/фразы;

значение – это средний доход с трафика пользователей в сервисе после ввода определенного слова или фразы. Это имеет значение в случае, если это страницы магазинов;

-конкуренция – приблизительное определение конкуренции и уровня сложности для каждого ключевого слова. Рассчитывается на основе количества конкурирующих сервисов, которые используют одно и то же ключевое слово, позиции этих конкурентов;

После точного анализа  можно выбрать наиболее эффективные ключевые слова. При создании нового сайта рекомендуется оптимизировать каждую страницу для одного, максимум двух  ключевых фраз. Несмотря на то, что возможна оптимизация для большего количества слов, но лучшие результаты дает разбивка на страницы, содержащие точные  сведения о поисковых фразах. Со временем развития сайтов увеличилось количество входящих ссылок и укрепление позиций в  сети Интернет, оптимизация для большего количества фраз легче достигается.

Понравилась статья? сделайте репост чтобы не потерять

Поделиться в facebook
Репост в Facebook
Поделиться в twitter
репост в Twitter
Поделиться в vk
Репост в Вконтакте
Поделиться в odnoklassniki
Репост в Однокласники