Автор работы: Пользователь скрыл имя, 14 Мая 2012 в 16:49, контрольная работа
Данная работа содержит подробные ответы на следующие вопросы:
Тема 1.
Назовите отличительные черты Интернет от других сетей.
Можно ли рассматривать Интернет как деловую среду
Благодаря каким системам в Интернет можно проводить транзакции.
Тема 2.
Назовите основные типы узлов в Интернет
С какой целью создавался Интернет.
Тема 3.
Каковы основные элементы информационного пространства Интернет.
Какие виды информации, представлены в Интернет.
Каковы основные подходы к оценке информации, полученной через Интернет
Тема 4.
Назовите основные этапы построения поискового запроса.
Что включает в себя понятие «информационный шум».
Назовите основные виды поискового спама
Тема 5.
В чем заключается отличие между тематическими каталогами и поисковыми машинами
Назовите ведущие информационно-поисковые машины Интернет.
Тема 6.
Какие булевы функции направлены на сужение поискового запроса, а какие на его расширение
Для поиска в каких информационных системах используется тезаурус.
Тема 7.
В чем заключаются индивидуальные отличия различных поисковых систем (машин).
Какие зарубежные системы являются крупнейшими
Какое максимальное количество веб-страниц может проиндексировать программа Робот (спайдер) поисковой машины
Тема 8.
Какова глубина индексации веб-страниц в поисковой системе Яндекс и Рамблер
В чем смысл создания бесплатных информационно-поисковых систем.
Какую информацию предпочтительней искать в поисковой машине, а какую в тематическом каталоге.
AltaVista (http://www.altavista.com) – одна из старейших
поисковых систем занимает
3. Какими преимуществами
Порталы — это целый набор серверов, которые обеспечивают работу единой системы какого-либо Интернет-сервиса. В данном случае нас интересует служба поиска сайтов по заданным словам. Это значит, что поисковая машина должна знать, где и на каком сайте встречаются те или иные слова.
На каждом поисковом сайте есть раздел
помощи, зайдя в который можно почитать
об особенностях синтаксиса составления
запросов. При помощи специальных символов
можно составлять достаточно сложные
запросы, в которых указывать не только
нужные слова, их формы, но и слова, которые
не должны присутствовать на странице.
Тема 6
1.Какие булевы функции
Булева модель, булевая, двоичная (boolean)
— модель поиска, опирающаяся на операции
пересечения, объединения и вычитания
Дубликаты (duplicates) — разные документы с идентичным, с точки зрения пользователя, содержанием; приблизительные дубликаты, почти дубликаты (near duplicates), в отличие от точных дубликатов, содержат незначительные отличия.
Единица поиска — текст, в пределах которого проверяется логическая комбинация.
Конкорданс — словарь, в котором в алфавитном порядке перечислены слова, употребляемые писателем, а также указаны их адрес и частота употребления.
Индекс цитирования (citation index) — число упоминаний (цитирований) научной статьи, в традиционной библиографии рассчитывается за промежуток времени, например за год.
Индексирование, индексация (indexing) — процесс составления или приписывания индекса (указателя) — служебной структуры данных, необходимой для последующего поиска.
Поиск похожих документов (similar document search) — задача информационного поиска, в которой в качестве запроса выступает сам документ и необходимо найти документы, максимально напоминающие данный.
Поисковая система, информационно-поисковая
Полнота, охват (recall) — доля релевантного материала, заключенного в ответе поисковой системы, по отношению ко всему релевантному материалу в коллекции.
Релевантность (relevance, relevancy) — соответствие документа запросу.
Словоизменение (inflection) — образование определенной грамматической формы слова, обычно обязательной в определенном контексте.
Стоп-слова (stop-words) — союзы, предлоги и другие частотные слова, которые поисковая система исключила из процесса индексирования и поиска для повышения своей производительности и/или точности поиска.
Точность (precision) — доля релевантного материала в ответе поисковой системы.
Хиты — количество заходов на сайт за определенный промежуток времени.
Хосты — количество уникальных посетителей в единицу времени.
2. Для поиска в каких информационных системах используется тезаурус.
Ключевые слова, по изначальному замыслу, должны отображать наиболее существенную информацию. Понятие “существенности” информации при выборе КС является одним из основных и наиболее сложных понятий информатики. Многообразие возможных способов отбора информации по различным критериям существенности в силу субъективности принятия соответствующего решения обусловливает вариативность представления смыслового содержания текста при его индексировании.
Целесообразность включения КС в тезаурус обычно оценивается по нескольким факторам, которые тесно взаимосвязаны между собой:
по важности данного КС для описания содержания соответствующего документа с точки зрения информационного поиска (важность определяется, например, по роли КС в тексте);
по связям их с КС, отобранными ранее (выбор КС, обозначающих более широкие, узкие или ассоциативные понятия);
по их точности и приемлемости с точки зрения
по решению специалистов в данной области знания.
В качестве дополнительных источников лексики для ИПТ используются: тезаурусы по родственной тематике, энциклопедические, толковые и терминологические словари и справочники, учебники и руководства, монографии, терминологические и другие стандарты, таблицы классификаций; рубрикаторы и т.п.
Тема 7
1. В чем заключаются индивидуальные отличия различных поисковых систем (машин).
Поисковых систем существует довольно много, каждая из них наделена своими целями и задачами, часто – коммерческими. Однако, глобальных, мирового значения поисковых систем, пользующихся большим доверием клиентов, не так уж много. По исследованиям текущего года доминирующую позицию в мире занимает система Google, получившая процентное выражение обращений к ней – около 85%. Следующая в этой категории идет более “древняя” Yahoo!, на долю которой приходится менее 7% запросов. Среди русскоязычных поисковых систем безусловным лидером является Яндекс.
Учитывая это, весь комплекс мер по SEO-оптимизации
направлен, собственно, на продвижение
русскоязычных сайтов именно в этих двух
системах – Google и Яндекс. Именно топ-позиции
в выдаче этих поисковых систем дают реальное
прибавление трафика на сайт. Существенные
различия в структуре и алгоритмах поисковых
систем обусловливают то, что разные сайты
индексируются и ранжируются по-разному
в Яндексе и Google.
2.Какие зарубежные системы являются крупнейшими
AltaVista Американский поисковый сервер. Постоянно обновляемые новости от ABC News. Возможность поиска на многих языках мира, в том числе на русском. Эта машина хороша для поиска ответов на тонкие, специфические или сложные вопросы. Для того чтобы не затеряться среди множества ненужных сайтов, работа этой поисковой машины регулируется с помощью логических операторов, таких как AND или NOT. AltaVista считается наиболее мощной, но трудной в управлении поисковой машиной. Охватывает десятки миллионов WWW-страниц, десятки тысяч серверов, 3-х-уровневый рубрикатор, примерно 15,5% ресурсов Интернета. Для поиска на русском языке воспользуйтесь настройкой системы через ссылки Customaze Settings -> Results Options-> Lenguage Options. Кроме языка, следует выбирать и кодировку для кириллицы. (Win1251)
Черепаха Новую поисковую систему
Excite Информационно-поисковый
HotBot Американская поисковая
Lycos Американский поисковый сервер. Специально для детей поиск, обходящий "опасные" страницы и сайты. Подключение HotBot. 2-х-уровневый рубрикатор. Прекрасно подходит для поиска изображений и звука, связанных с искомой темой. Lycos , подобно Excite , иногда выдает сайты, которые не содержат нужной информации. Это иногда бывает полезно, а иногда - нет. Охватывает 2,5% ресурсов Интернета.
WebCrawler Поиск по англоязычным
3. Какое максимальное количество веб-страниц может проиндексировать программа Робот (спайдер) поисковой машины.
Сканирование – это процесс, в ходе которого робот Googlebot обнаруживает новые и обновленные страницы для добавления в индекс Google.
Робот Googlebot использует алгоритмический процесс: программы определяют, какие сайты нужно сканировать, как часто это нужно делать, а также какое количество страниц следует выбрать на каждом сайте.
Процесс сканирования Google начинается со списка URL-адресов веб-страниц, созданного на основе предыдущих сеансов сканирования. Его дополняют данные из файлов Sitemap, предоставленных веб-мастерами. Просматривая каждый из этих сайтов, поисковый робот Googlebot находит на каждой странице ссылки и добавляет их в список страниц, подлежащих сканированию. Робот Googlebot отмечает все новые и обновленные сайты, а также неработающие ссылки. Полученная информация используется для обновления индекса Google.
Когда пользователь вводит поисковый запрос, система находит в индексе подходящие страницы и выдает наиболее релевантные, по нашему мнению, результаты. Релевантность определяется различными факторами, которых насчитывается более 200
|
Тема 8
1. Какова глубина индексации
веб-страниц в поисковой
Помимо информации о том, какие домены и документы индексируются поисковыми машинами, специалистам-оптимизаторам для грамотной раскрутки сайта также необходимо знать о том, насколько глубоко поисковик погружается в сайт, насколько далеко заходит по страницам. Теоретически ограничений, связанных с проходом по страницам у поисковой машины не существует. Но, как показывает практика, поисковик не будет индексировать, к примеру, миллион страниц вашего сайта. Это связано с тем, что в очереди на индексацию у поисковой машины стоят десятки миллионов других сайтов, и этот список ежедневно пополняется. Поэтому поисковик старается за один раз охватить разумное количество страниц, не посвящая этому особо много времени. Хотя при следующем попадании на этот же сайт поисковик проиндексирует следующие страницы. В результате получается, что поисковая машина не погружается слишком глубоко в индексируемый сайт и не берет каждый раз большое количество страничек.
Поэтому при разработке сайта необходимо разумно организовывать структуру сайта, чтобы не было бесчисленных переходов с одной страницы на другую. Потом на третью и так далее – следует избегать цепочек из ссылок.
Глубина индексирования, в Яндекс и Рамблер не ограничена.
2.В чем смысл создания
Всем известный факт, что поисковые
системы современного Интернета
работают на основе ссылочного ранжирования,
подразумевает успех сайта, связанный
с наличием множества качественных
ссылок на сайт. О качестве ссылок можно
говорить долго и нудно, но основные
критерии всё-таки зависят от качества
донора. В свою очередь донор должен
по максимуму соответствовать
Внешние входящие ссылки на сайт можно получать
за счёт обмена ссылками, покупки ссылок
на чужих сайтах и другими доступными методами
(желательно чтобы эти методы были белыми
и не противоречили правилам использования поисковых
Итак, если ссылки не покупать и не тратить время на поиск площадок для обмена ссылками, то вывод напрашивается сам. Нужно создавать небольшие сайты для реализации этих задач.
Эти сайты называются Сателлитами («сателлит» - «спутник») и предназначены они прежде всего для поддержки и продвижения основного сайта (основных сайтов) в поисковых системах. То есть для увеличения его ссылочной массы и соответственно для поднятия его позиций в поисковой выдачи по необходимым запросам.
Информация о работе Контрольная работа по "Деловым ресурсам Интернет"