Автор работы: Пользователь скрыл имя, 09 Ноября 2011 в 15:25, контрольная работа
8 тем
Учитывая
это, весь комплекс мер по SEO-оптимизации
направлен, собственно, на продвижение
русскоязычных сайтов именно в этих
двух системах – Google и Яндекс. Именно
топ-позиции в выдаче этих поисковых систем
дают реальное прибавление трафика на
сайт. Существенные различия в структуре
и алгоритмах поисковых систем обусловливают
то, что разные сайты индексируются и ранжируются
по-разному в Яндексе и Google.
AltaVista Американский поисковый сервер. Постоянно обновляемые новости от ABC News. Возможность поиска на многих языках мира, в том числе на русском. Эта машина хороша для поиска ответов на тонкие, специфические или сложные вопросы. Для того чтобы не затеряться среди множества ненужных сайтов, работа этой поисковой машины регулируется с помощью логических операторов, таких как AND или NOT. AltaVista считается наиболее мощной, но трудной в управлении поисковой машиной. Охватывает десятки миллионов WWW-страниц, десятки тысяч серверов, 3-х-уровневый рубрикатор, примерно 15,5% ресурсов Интернета. Для поиска на русском языке воспользуйтесь настройкой системы через ссылки Customaze Settings -> Results Options-> Lenguage Options. Кроме языка, следует выбирать и кодировку для кириллицы. (Win1251)
Черепаха
Новую поисковую систему
Excite
Информационно-поисковый
HotBot
Американская поисковая
Lycos Американский поисковый сервер. Специально для детей поиск, обходящий "опасные" страницы и сайты. Подключение HotBot. 2-х-уровневый рубрикатор. Прекрасно подходит для поиска изображений и звука, связанных с искомой темой. Lycos , подобно Excite , иногда выдает сайты, которые не содержат нужной информации. Это иногда бывает полезно, а иногда - нет. Охватывает 2,5% ресурсов Интернета.
WebCrawler
Поиск по англоязычным
3. Какое максимальное количество веб-страниц может проиндексировать программа Робот (спайдер) поисковой машины.
Сканирование – это процесс, в ходе которого робот Googlebot обнаруживает новые и обновленные страницы для добавления в индекс Google.
Робот Googlebot использует алгоритмический процесс: программы определяют, какие сайты нужно сканировать, как часто это нужно делать, а также какое количество страниц следует выбрать на каждом сайте.
Процесс сканирования Google начинается со списка URL-адресов веб-страниц, созданного на основе предыдущих сеансов сканирования. Его дополняют данные из файлов Sitemap, предоставленных веб-мастерами. Просматривая каждый из этих сайтов, поисковый робот Googlebot находит на каждой странице ссылки и добавляет их в список страниц, подлежащих сканированию. Робот Googlebot отмечает все новые и обновленные сайты, а также неработающие ссылки. Полученная информация используется для обновления индекса Google.
Когда
пользователь вводит поисковый запрос,
система находит в индексе
подходящие страницы и выдает наиболее
релевантные, по нашему мнению, результаты.
Релевантность определяется различными
факторами, которых насчитывается более
200
|
Помимо информации о том, какие домены и документы индексируются поисковыми машинами, специалистам-оптимизаторам для грамотной раскрутки сайта также необходимо знать о том, насколько глубоко поисковик погружается в сайт, насколько далеко заходит по страницам. Теоретически ограничений, связанных с проходом по страницам у поисковой машины не существует. Но, как показывает практика, поисковик не будет индексировать, к примеру, миллион страниц вашего сайта. Это связано с тем, что в очереди на индексацию у поисковой машины стоят десятки миллионов других сайтов, и этот список ежедневно пополняется. Поэтому поисковик старается за один раз охватить разумное количество страниц, не посвящая этому особо много времени. Хотя при следующем попадании на этот же сайт поисковик проиндексирует следующие страницы. В результате получается, что поисковая машина не погружается слишком глубоко в индексируемый сайт и не берет каждый раз большое количество страничек.
Поэтому при разработке сайта необходимо разумно организовывать структуру сайта, чтобы не было бесчисленных переходов с одной страницы на другую. Потом на третью и так далее – следует избегать цепочек из ссылок.
Глубина индексирования, в Яндекс и Рамблер не ограничена.
Всем известный факт, что поисковые системы современного Интернета работают на основе ссылочного ранжирования, подразумевает успех сайта, связанный с наличием множества качественных ссылок на сайт. О качестве ссылок можно говорить долго и нудно, но основные критерии всё-таки зависят от качества донора. В свою очередь донор должен по максимуму соответствовать тематике сайта-реципиента и не должен подвергаться различным фильтрам со стороны поисковых систем, которые тем или иным способом или силой понижают вес внешних ссылок.
Внешние
входящие ссылки на сайт можно получать
за счёт обмена ссылками, покупки ссылок
на чужих сайтах и другими доступными
методами (желательно чтобы эти методы
были белыми и не противоречили правилам
использования поисковых
Итак, если ссылки не покупать и не тратить время на поиск площадок для обмена ссылками, то вывод напрашивается сам. Нужно создавать небольшие сайты для реализации этих задач.
Эти сайты называются Сателлитами («сателлит» - «спутник») и предназначены они прежде всего для поддержки и продвижения основного сайта (основных сайтов) в поисковых системах. То есть для увеличения его ссылочной массы и соответственно для поднятия его позиций в поисковой выдачи по необходимым запросам.
Сателлитов может быть от одного и до нескольких сотен. Возможно и больше. Всё зависит от возможностей оптимизатора и от сложности продвижения основного сайта.
Машины веб-поиска - это сервера с огромной базой данных URL-адресов, которые автоматически обращаются к страницам WWW по всем этим адресам, изучают содержимое этих страниц, формируют и прописывают ключевые слова со страниц в свою базу данных (индексирует страницы).
Более того, роботы поисковых систем переходят по встречаемым на страницах ссылкам и переиндексируют их. Так как почти любая страница WWW имеет множество ссылок на другие страницы, то при подобной работе поисковая машина в конечном результате теоретически может обойти все сайты в Интернет.
Каталог Интернет-ресурсов – это постоянно обновляющийся и пополняющийся иерархический каталог, содержащий множество категорий и отдельных web-серверов с кратким описанием их содержимого.Способ поиска по каталогу подразумевает «движение вниз по ступенькам», то есть движение от более общих категорий к более конкретным. Одним из преимуществ тематических каталогов является то, что пояснения к ссылкам дают создатели каталога и полностью отражают его содержание, то есть дает Вам возможность точнее определить, насколько соответствует содержание сервера цели Вашего поиска.
Кроме
того, некоторые тематические каталоги
позволяют искать по ключевым словам.
Пользователь вводит необходимое ключевое
слово в строку поиска и получает список
ссылок с описаниями сайтов, которые наиболее
полно соответствуют его запросу. Стоит
отметить, что этот поиск происходит не
в содержимом WWW-серверов, а в их кратком
описании, хранящихся в каталоге.