1.1 История развития поисковых систем В начальный период развития Интернет, число его пользователей было невелико, а объем доступной информации относительно небольшим. В большинстве случаев доступ к Интернет имели сотрудники различных университетов и лабораторий, а в целом Сеть использовалась в научных целях. В это время задача поиска информации в сети Интернет была далеко не столько актуальной, как в настоящее время.
Одним из первых способов организации доступа к информационным ресурсам сети стало создание каталогов сайтов, в которых ссылки на ресурсы группировались согласно тематике. Первым таким проектом стал сайт Yahoo, открывшийся в апреле 1994 года. После того, как число сайтов в каталоге Yahoo значительно увеличилось, была добавлена возможность поиска информации по каталогу. Это, конечно же, не было поисковой системой в полном смысле, так как область поиска была ограничена только ресурсами, присутствующими в каталоге, а не всеми ресу
... Читать дальше »
Оптимизация изображений для WWW: разные форматы — разные подходы Оптимизация изображений для WWW: разные форматы — разные подходы
Подготовить изображение для размещения в интернете означает подобрать подходящий формат и свойства файла: качество JPEG-сжатия, режим чересстрочного вывода GIF и т.п. Если при этом используется индексированный цвет, может потребоваться коррекция цветовой палитры — чтобы свести к минимуму нежелательные эффекты смешения. Настройка этих параметров для получения приемлемого качества файла и времени его загрузки на веб-странице с учетом средней скорости соединения и называется оптимизацией изображения. В графических редакторах, таких как Photoshop и Illustrator, команда для такой оптимизации называется Save for Web… (Сохранить для веб...). Основное место в окне занимает панель со вкладками, где отображается оптимизируемое изображение. На вкладке Original (Исходный вид) изображение выводится в том виде, в каком оно было создано; на
... Читать дальше »
META-теги — это необязательные атрибуты страницы, которые могут содержать ее описание, ключевые слова к ней, информацию об авторе, управляющие команды для броузера и поисковых роботов, и прочую служебную информацию, не предназначенную для вывода на экраны браузеров. Многие из поисковых систем используют META-теги для качественной индексации сайтов. Команды META вносятся в "шапку" документа - внутри блока ... . Выглядят META-теги следующим образом: - Поле name определяет, за что данный тег отвечает. Длина поля content по стандарту ограничена 1024 знаками, включая пробелы и знаки препинания. Но в поисковых системах разных типов могут быть свои ограничения на длину воспринимаемых мета-тегов. Дополнительно информационные теги перед атрибутом content могут содержать атрибут Lang="ru" - язык, на котором написано значение свойства content, если он не английский. Мета теги делятся на две группы: NAME и HTTP-EQUIV. Мета теги NAME содержат информацию о документе, его авторе и ре
... Читать дальше »
- Указание языка документа. Используется поисковыми машинами при индексировании. Хотя большинство из них умеют различать язык по тексту..
Используется для указания браузеру автоматически переключался на новый адрес. Данная конструкция через 5 секунд начнет перезагрузку окна браузера по адресу http://changer.newmail.ru/. Обычно тег используется на страницах, которые вставляются вместо титульных при переезде сайта на другой адрес. Если этот МЕТА-тег записать в таком виде то текущая страница будет обновляться через N секунд
- Определяет действия кэша по отношению к данному документу. Значения параметров: Public - документ кэшируется в доступных для всех кэшах, Private - только в частном кэше, no-cache - не может быть кэширован, no-store - может быть кэширован, но не сохраняется.
Этот тег контролирует занесение страниц в кэш-память компьютера. Страницы с этим тегом не будут кэшироваться броузерами. Однако современные версии интернет-броузер
... Читать дальше »
При индексации страницы робот закачивает ее, индексирует, анализирует ссылки и закачивает указанные в них страницы. И так многократно. При обнаружении ссылок на страницы другого сайта, робот начинает закачивать страницы и оттуда, а там новые ссылки на следующие сайты. При этом существует вероятность полного переключения робота на другие сайты, а Ваши страницы останутся недоиндексированными (не навсегда, но, возможно, надолго). Вот тут-то определенная директива, запрещающая индексацию страниц со ссылками на другие сайты, была бы кстати. Такие директивы закладываются в файл robots.txt.
Файл robots.txt должен находиться в корневом каталоге и определять, какие файлы и каталоги не индексируются. Например, если сайт называется design.narod.ru, то файл robots.txt должен иметь адрес http://design.narod.ru/robots.txt. Файлы robots.txt во внутренних каталогах сайта поисковыми машинами игнорируются. Наименование файла robots.txt должно состоять из букв нижнего регистра. <
... Читать дальше »