Экономическая библиотека

Учебники по экономике

3.2. Продвижение сайта в Интернете

  Для того чтобы привлечь как можно больше посетителей на свой сайт компания должна продумать, какие способы для этого будут использоваться.
  Залог популярности сайта - это его удачный домен.
  Выбирая домен, следует придерживаться следующих правил:
  - доменное имя должно быть коротким и легко запоминающимся;
  - оно должно быть логически связано с предоставляемым спектром услуг, выпускаемых товаров, либо совпадать с ее названием или аббревиатурой;
  - URL сайта должно легко произноситься и восприниматься на слух, при записи домена не должно возникать разночтений, его написание должно быть однозначным и очевидным для всех.
  Под продвижением сайта в сети обычно понимаются мероприятия, основной целью которых является увеличение числа уникальных и повторных посещений пользователями ресурса. В зависимости от источника трафик ресурса можно поделить на три основные источника: type-in; поисковые системы и каталоги; ссылающиеся ресурсы.
  Type-in трафик состоит из посетителей, которые пришли на ресурс посредством ввода URL сайта в адресную строку браузера. Большая доля трафика type-in на сайте - это следствие его известности, такой трафик характерен для сервисных проектов - почты, чата, поиска и пр.
  Значительное количество посетителей находит ресурс посредством использования поисковых систем и каталогов.
  Каталоги содержат список ссылок на другие сайты, разбитый на несколько рубрик по тематической направленности.
  Для регистрации в каталоге владелец сайта заполняет соответствующую интерактивную форму, включающую в себя сведения о тематике сайта, его названии, URL и ключевых слов для поиска, после чего |эта информация заносится в базу данных каталога. Модераторы сервера, призванные следить за соответствием регистрируемых ресурсов общим правилам данной интерактивной службы, в течение нескольких дней проверяют страницу на предмет отсутствия в ней запрещенного содержания.
  Поисковые машины представляют собой специализированные серверы, предназначенные для поиска и аккумуляции информации по запросам пользователя. В отличие от интерактивных каталогов, поисковые машины производят индексацию и поиск документов по пользовательскому запросу автоматически. По этой причине необходима предварительная подготовка сайта для регистрации в поисковых системах.
  Технология сбора адресов страниц в Интернете заключается в том, что для начала разработчики поисковой машины загружают в нее начальный список адресов страниц сайтов (например, из каталога). Затем поисковая машина (поисковый робот) собирает все гипертекстовые ссылки из каждой из заданных страниц на другие страницы и добавляет все найденные в ссылках адреса к своему первоначальному набору адресов. Таким образом, малоизвестные страницы, на которые никто не ссылается, имеют очень мало шансов автоматически попасть в индекс поисковой машины. Владелец сайта может сам добавить новый адрес страницы в индекс поисковика вручную, используя средства регистрации новых веб-страниц, которые есть во всех поисковых машинах.
  Поисковик выкачивает текст из страницы специальным модулем поисковой машины, называемой поисковым «пауком» или поисковым роботом. После выкачивания индексный робот выбирает все слова из выкачанных текстов и располагает их в алфавитном порядке, помещает их в индекс, к которому поисковая машина обращается по запросу пользователя в поисковике. В большинстве случаев поисковые машины слова не заносят в индекс в том виде, в котором они есть в тексте, а подергают их машинной морфологии. В индексе поисковая машина идет от слов к страницам, то есть индекс является инвертированным.
  Изначально целью поисковиков было проиндексировать веб-страницы, то есть тексты в формате html. Позже большинство поисковиков начали индексировать выложенные на сайт документы в форматах Word, PDF, Excel.
  После регистрации в той или иной поисковой системе администрация сервера предлагает клиентам бесплатный счетчик посещений, позволяющий участвовать в различных рейтингах данной службы. Чем больше посещений, тем выше ссылка на сайт будет находиться в списке прочих ресурсов Интернета и, соответственно, тем больше пользователей каталога станут ее посетителями.
  Рейтинг определяется количеством уникальных посетителей сайта в сутки.
  Индекс цитирования (ИЦ) показывает, сколько чужих сайтов ссылаются на ресурс.
  Тематический индекс цитирования (ТИЦ) учитывает тематику ссылающихся на сайт страниц.
  Релевантность результатов поиска поисковой машины означает, что эти результаты содержат страницы, относящиеся к делу, то есть к смыслу поискового запроса.
  Ранжированием называется упорядочение результатов поиска по их релевантности. Каждая поисковая машина имеет свою формулу релевантности. Кроме сведений о составе и релевантности текста на самой странице, поисковики анализируют также позицию страницы в общем пространстве Интернета, а именно авторитетность страницы, которую они вычисляют по количеству ссылок на нее с других сайтов.
  Поисковые машины отличаются друг от друга набором своих возможностей, функциональностью, удобством.
  Индексацию сайта в результатах поиска определяют адреса страниц и работа серверных скриптов.
  Статические адреса обычно представляют собой обычный html-файл (www.site.ru/service.html), содержимое которого для каждого посетителя статическое. Поисковые роботы успешно индексируют такие страницы.
  В динамических адресах используются серверные скрипты - программы, написанные на языках веб-программирования (PHP, Perl, ASP, JSP, CFML). Адреса таких страниц характеризуются расширением файлов (php, pl, cgi, jsp) и наличием в адресе символов «?», «&», «=».В настоящее время поисковые системы успешно работают с динамическими страницами, но в некоторых поисковых системах квоты на количество индексируемых страниц отличаются для динамических и статических не в пользу первых. Поэтому желательно иметь на сайте как статические, так и динамические страницы.
  В работе серверных скриптов и настройках веб-сервера часто скрыто довольно много факторов, оказывающих влияние на индексацию сайта роботами поисковых систем, среди которых можно выделить:
  - настройку работы сервера и серверных скриптов с заголовками HTTP. При каждом запросе к серверу браузер или робот поисковика передает служебную информацию в HTTP-заголовках. Если сервер не имеет нужных настроек, то он выдаст роботу сообщение об ошибке или совсем другую страницу, тогда как в браузере посетителя по этому адресу выводится правильная страница;
  - дату изменения страницы - чем чаще изменяется страница, тем чаще приходит на сайт робот поисковой машины;
  - сессии и дубликаты - необходимо исключать ситуации, когда по нескольким разным адресам находятся совершенно одинаковые страницы;
  - html-коды страницы - один из основных внутренних факторов, важных для успешного позиционирования страниц сайта в результатах поиска. Поисковики стараются распознать логическую структуру текста - заголовки, логические акценты на наиболее важных словах (для выделения которых используются теги <title>, <h1>-<h6>, <strong>, <em>).
  Часть страниц на сайте имеет смысл не отдавать на индексацию поисковому роботы, например, карточки пользователей, списки участников. Инструкцию о запрещении индексации размещают в файле исключений robots.txt или в специальном метатеге <meta name-"robots">.
  По типу поисковые запросы можно подразделить на:
  - навигационные запросы от пользователей, которые хотят найти конкретное место в Сети (например, сайт нужной компании);
  - информационные запросы от пользователей, желающих получить какие-то сведения, информацию в сети, причем обычно им все равно, где именно она находится;
  - транзакционные вопросы вводит пользователь, который желает совершить какое-то действие в Интернете - транзакцию (т.е. купить, скачать, заплатить);
  - нечеткие запросы, например, «билеты», «квартиры» и пр.
  Тип запроса необходимо знать, чтобы иметь представление, какие посетители заходят на сайт и как можно их обслужить.
  Главные критерии оценки поискового запроса - это популярность (частота) и оценка продающей способности запроса. Список поисковых запросов, по которым сайт продвигается в поисковых системах, называется семантическим ядром сайта (то есть, это список поисковых запросов, наилучшим образом соответствующий смыслу, основному содержанию сайта).
  Один из основных принципов работы современных поисковых систем заключается в том, что они стремятся найти и показать вверху списка «естественные вебстраницы», наиболее соответствующие запросу. Неестественные страницы содержат большое количество повторяющихся слов. Ряд поисковых систем для анализа страниц использует закон Ципфа, в соответствии с которым, если слова расположить в порядке их частоты употребления в некотором достаточно большом текстовом массиве, то количество вхождений слова будет обратно пропорционально его номеру. Закон Ципфа применяют для анализа текстов в разных отраслях, в том числе и для зашифрованных сообщений, когда нужно понять, имеем ли мы дело с естественным текстом или нет.
  Внутренние факторы ранжирования, от которых зависит расположение страницы в результатах поиска, владелец сайта может изменить самостоятельно, обратив внимание на:
  - использование «цитат» в поисковиках;
  - вес ключевых слов запроса - количество употреблений слова к общему количеству слов, имеющихся в документе;
  - титул и ключевые слова в нем, то есть заголовок (<title> компания «х» - биографические изыскания </title> );
  - близость ключевых слов к началу веб-страницы;
  - ключевые слова в тегах заголовков. При этом учитывается естественная плотность заголовков. Смысловой вес заголовка выше, чем простого предложения (заголовки выделяются тегами <h1>, <h2>);
  - ключевые слова в тегах выделения (жирный шрифт, курсив <strong>, <em>, <b>, <i>);
  - внутренние ссылки сайта, которые учитываются поисковыми машинами при ранжировании;
  - ссылочное ранжирование, заключающееся в том, что чем больше найдено в интернете ссылок на страницу P, чем авторитетнее страницы, на которых стоят ссылки на страницу P, чем чаще в текстах ссылок находится слово W, тем вероятнее, что по запросу W поисковая система отобразит ссылку на страницу P вверху результатов поиска.
  Но при этом надо учитывать, что:
  - поисковые системы стараются держать в секрете информацию о факторах ранжирования и количественных характеристиках значимых параметров;
  - алгоритмы ранжирования постоянно изменяются разработчиками для получения лучшей релевантности результатов поиска;
  - ранжирование зависит не только от действий веб-мастера, но и от действий конкурентов.
  Авторитетность ссылок также оказывает влияние на результаты расположения сайта в результатах поиска. Таким образом, увеличивая количество внешних ссылок на другие авторитетные сайты, можно повышать позиции сайта в результатах поиска.
  Поисковые системы стараются не давать точных данных, которые помогают детально разобраться в принципах ранжирования страниц, поэтому об авторитетности страницы приходится судить по косвенным показателям. Для российских сайтов это два вида показателей авторитетности:
  - ТИЦ - тематический индекс цитирования сайта «Яндекса» - определяет авторитетность интернет-ресурсов с учетом качественной характеристики ссылок на него с других сайтов. Большую роль играет тематическая близость ресурса и ссылающихся на него сайтов. Необходимо помнить, что Яндекс не повышает ИЦ, если сайт меняется ссылками или баннерами с сайтами с бесплатных хостов, таких как narod.ru, h1.ru, by.ru, nm.ru и др.;
  - PageRank - это метод Google для измерения «важности» страницы, определяющийся вероятностью появления пользователя на странице.
  Ссылочное ранжирование - это влияния текста ссылок на документ X на релевантность этого документа X по запросу Y. Если слово W поискового запроса встречается в тексте ссылки на документ В с документа А, это повышает релевантность документа В по данному запросу.
  Прямой обмен ссылками может быть осуществлен с использованием разделов «Партнеры», «Каталоги», «Полезные сайты». Эти разделы практически всегда создаются для линкообмена, то есть обмен выполняется по схеме А → В, В → А.
  Термин непотизм (непот-спам) означает размещение ссылок для «накачивания» релевантности. Наказанием за непотический спам служит занесение в непот-лист, после чего ссылки перестают учитываться для расчета результатов ранжирования.
  Кольцевой обмен происходит по цепочке: А → В, В → С, С → А. Чем больше участников, тем безопаснее и эффективнее подобные обмены. Существуют также тематические кольца сайтов.
  Ряд авторитетных сайтов продают ссылки со своих веб-страниц.
  Узнать о том, где на интернет-сайт уже размещены ссылки можно по рефе- рер-логам, которые генерируются на сервере, либо воспользоваться поисковыми системами. Анализ access- и refer- лога является эффективным инструментом анализа посещаемости web-сайта, поведенческой линии посетителей, эффективности рекламных кампаний.
  Поисковые системы индексируют не только традиционные для Интернета html-документы. Их индексы пополняются информацией, полученной из документов, созданных в форматах pdf, doc, xml.
  Служба Яндекс.Картинки автоматически собирает картинки в стандартных графических форматах (jpeg, gif, png). Материалом для текстового поиска служат подписи к картинкам и ссылки на них, тексты коротких документов, обрамляющих одиночную картинку, имена файлов и скриптов.
  Ряд владельцев сайтов для улучшения показателя релевантности использует различные способы спама поисковых индексов - спамдексинг. На сегодняшний день ресурсы, содержащие подобный вид спама, исключаются поисковыми системами из индекса из-за невозможности их корректного ранжирования.
  К основным способам спамдексинга можно отнести:
  - спам метатегов <meta keywords>. Поисковыми системами выход был найден в отказе от использования содержимого метатегов для отбора сайтов поисковой выдачи. Поисковые системы стали учитывать только содержание текстов веб-страницы, то есть ту информацию, которую видят пользователи;
  - «накачка» текстов ключевыми словами. В качестве борьбы используется анализ текста на «естественность», в том числе и методом Ципфа.
  - наличие скрытого и мелкого текста, использование которого в настоящее время быстро приводит к исключению сайта из индекса;
  - редирект (перенаправление) пользователей, то есть использование двух страниц: входной (дорвей) и нужной для отображения. Перенаправление с дорвея осуществляется автоматически, и пользователь не успевает просмотреть содержание входной страницы. В настоящее время за автоматическое перенаправление сайты вносятся в бан-лист. В ряде случаев на дорвеях пишется слово «Вход», а также часто существуют несколько дорвеев для поисковых роботов, перенаправляющих пользователей на нужную страницу;
  - замена содержимого входных страниц - свопинг, который выполняется следующим образом: создается большое количество дорвеев, которые выкладываются в интернете и подаются на индексацию в поисковые системы, после визита на страницы поискового робота содержимое заменяется тем, которое необходимо показывать посетителям. Метод работает до следующего визита на страницу поискового робота (от нескольких недель до месяцев);
  - отображение роботу поисковой системы оптимизированной страницы вместо той страницы, которую увидит пользователь - клоакинг. Робот поисковой системы определяется по полю user-agent или по IP-адресу места, откуда приходит запрос (User-agent пользователя - его браузер, поискового робота - идентификатор поисковика). Клоакинг распознается по сравнению страниц, которые выдаются поисковику и пользователю. Бан дается за явный обман со стороны создателей сайта;
  - полное и неполное дублирования сайтов. Поисковые системы стараются «склеивать» неполные дубли и не показывать полное дублирование. В результатах поиска по запросу возможна лишь одна ссылка на домен;
  - использование ссылочного спама - регистрация в большом количестве каталогов, создание сетей сайтов для поддержки ссылок.

 
© www.eclib.net