|
Описание файла:
Так уж получилось, что оптимизаторам приходится работать с поисковыми системами, точнее будет сказать, что оптимизатор должен подстраиваться под потребности поисковиков. Поэтому будет логично, если мы сегодня немножко поговорим про устройство и работу поисковых машин. До сих пор в среде начинающих пользователей Интернета существует неверное представление о работе поисковых машин. Неискушенный пользователь представляет себе работу поисковиков примерно так: он вводит ключевую фразу в текстовое поле, нажимает на кнопку «Найти» и начинается нечто невообразимое. Поисковая машина бросается в пучину Интернета и за доли секунды просматривает миллионы страниц, ищет нужные сайты, попутно систематизируя просмотренную информацию. И все это, еще раз напомню, за доли секунды. Было бы здорово, если бы современные вычислительные мощности компьютеров позволяли сотворить такой трюк. Может, и жизнь наша повернулась бы по-другому. Однако все обстоит несколько иначе. Каждая поисковая система если не обладает собственной, то в любом случае использует определенную, кем-то созданную базу данных. Как создается такая база данных, мы рассмотрим чуть позже. Сейчас хочется сделать сравнение (не я первый делаю такое сравнение) с обыкновенной библиотекой. Уважающая себя поисковая система индексирует базу данных по подобию библиотечного каталога. При хранении большого объема информации, они должны быстро уметь находить запрашиваемые данные. Чтобы получить более полное представление о работе поисковых систем рассмотрим пять основных компонентов, из которых состоит каждая поисковая машина. Система выдачи результатов (Search engine results engine) – Такая система решает какие веб страницы соответствуют введенному запросу. Делается это на основе этакого внутреннего рейтинга поисковой системы, другими словами на основе ранжирования системы. Ранжирование – достаточно серьезное понятие для оптимизатора. Он должен знать это слово и понимать его смысл. Собственно вся работа оптимизатора заключается в повышении ранжирования для конкретного сайта. Паук (Spider) – не менее важный компонент поисковой системы, он подобно рядовому пользователю Интернета, скачивает веб страницы. Краулер (Crawler) – задача данного компонента находить ссылки на страницах и переходить по ним. Таким образом поисковая система получает информацию о новых сайтах и их содержимом. Краулер подсказывает пауку откуда следует скачивать страницы. Индексатор (Indexer) – данный компонент можно сравнить с хирургом, а может даже мясником с огромным топором (кому как угодно), так как индексатор расчленяет страницу на части, вследствие чего происходит анализ отдельных составляющих сайта. База данных (Database) - здесь хранятся все данные, которые поисковая система проиндексировала. Все вышеуказанные компоненты тесно взаимосвязаны друг с другом. Несмотря на то, что математические алгоритмы поиска в разных системах отличаются друг от друга (попробуйте ввести одно и то же слово в разных поисковиках – результаты будут разительно отличаться), существуют общие моменты, одним из которых является работа спайдера. Здесь хочется выделить основные способы исследования. Первый метод – поиск новых страниц по ссылкам с других сайтов. Второй – исследование проходит из ранее полученных списков адресов. Третий – спайдер использует адреса, добавленные вручную пользователями прямо в поисковую машину. Работа поисковых машин постоянно совершенствуется и для этого есть серьезный повод. Современный Интернет растет в геометрической прогрессии. По приблизительным подсчетам ежедневно в глобальной сети добавляется около 8-9 миллионов страниц. Данная цифра позволяет сделать вывод, что полная индексация всей информационной составляющей сети – невозможна. Следует учитывать и обновляемость тех или иных страниц. Продвинутые поисковые системы вычисляют примерный интервал времени, через который происходит обновление. Основную работу по поиску новых сайтов берет на себя Краулер, который свою работу начинает с определенного адреса, занесенного в каталог. Далее Краулер проходит по всем имеющимся на начальной странице адресам и если он натыкается на «тупиковый» сайт, то есть сайт без ссылок на другие ресурсы, Краулер делает шаг назад, возвращается на предыдущую страницу и идет по пропущенным ссылкам. Один из вопросов, который волнует оптимизаторов, да впрочем, и простых пользователей: насколько глубоко Краулер может внедриться вглубь сайта? Здесь многое зависит от содержания сайта, длины ссылок. Например, давно известно, что чем короче адрес страницы, тем больше шансов у страницы быть замеченной и проиндексированной. Почему? У поисковых машин существует вполне обоснованная логика. Они считают, что более короткие адреса будут приводить на более общие и соответственно информационно полезные страницы. Например, у страницы с адресом http://www.URL.ru/index.php шансов быть проиндексированной гораздо больше, чем у http://www.URL.ru/prod/fite/index.php Если владелец сайта держит какие-то важные страницы глубоко в недрах сайта, то скорее всего, для индексации этих страниц ему придется вручную указывать поисковикам такие страницы. Эффективность поисковых машин определяется многими параметрами. Нередко таким параметром служит объем внутренней базы данных. Впрочем, судить об эффективности машины по объему базы данных будет не совсем верно. Немаловажным и достаточно важным показателем является обновляемость этой базы. Предположим у поисковой системы X огромная база данных, но поисковая система Y обладает большей эффективностью в отношении обновления своей базы данных. В итоге пользователь получит более точную, и свежую информацию, работая именно с системой Y. Сегодня ведутся постоянные работы по усовершенствованию алгоритмов индексирования страниц. Наиболее серьезные разработки происходят в направлении обнаружения свежей информации. Сегодня существует огромное количество ресурсов, где контент меняется ежедневно, а то и ежечасно. Сюда можно отнести новостные порталы, сайты связанные с электронной коммерцией. Даже если поисковая машина будет обновлять такой сайт ежедневно – информация будет уже достаточно устаревшей. Теперь поговорим о пресловутой аббревиатуре SEO, что расшифровывается как Search Engine Optimization – оптимизация для поисковых машин. Данная технология (если можно так сказать) направлена на привлечение посетителей за счет изменения сайта в сторону совместимости с поисковиками. Что дает SEO? Прежде всего, SEO – это приток посетителей на сайт без дополнительных вложений в рекламу и прочие платные методы раскрутки. Ввиду огромного количества сайтов, активного роста Интернета стала востребованной профессия оптимизатора. И это не случайно. По статистике около 80 процентов посетителей заходит на сайт именно через поисковые системы. Следует также учитывать, что человек, посетивший сайт через поисковую систему, целенаправленно искал ваш товар или услугу, поэтому такой посетитель вдвойне ценен. Время зарождения поисковой оптимизации совпадает с периодом внедрения и развития поисковых машин. Это 1997-1999 гг. В те славные времена SEO специалисты занимались простым добавлением ресурсов в поисковики. Такие услуги можно встретить и сегодня – существует немало компаний, готовых за деньги зарегистрировать вас в поисковых системах. Профессия SEO специалиста сегодня одна из высокооплачиваемых. Действительно профессиональный оптимизатор может выдвинуть сайт в верхние строчки результатов поиска. Однако не следует ждать от оптимизаторов мгновенных результатов. Если у вашего сайта большое число конкурентов, то вывод в верхние строчки в поисковиках станет огромной работой, которая потребует в первую очередь терпения. Хотелось бы добавить, что в поисковой оптимизации нет ничего сверхсложного и, как показывает опыт, владельцы ресурсов зачастую просто не хотят вникать в суть данного вида деятельности, хотя два-три умелых шага могли бы вывести их сайт далеко вперед. Неоднократно описанные приемы по оптимизации сайта не требуют специализированных знаний, а скорее требуют от владельца сайта желания преобразить свой ресурс и некоторой интуиции. |
| Всего комментариев: 0 | |
.

