|
|
Главная » Оптимизация сайта
1.1 История развития поисковых систем В начальный период развития Интернет, число его пользователей было невелико, а объем доступной информации относительно небольшим. В большинстве случаев доступ к Интернет имели сотрудники различных университетов и лабораторий, а в целом Сеть использовалась в научных целях. В это время задача поиска информации в сети Интернет была далеко не столько актуальной, как в настоящее время. Одним из первых способов организации доступа к информационным ресурсам сети стало создание каталогов сайтов, в которых ссылки на ресурсы группировались согласно тематике. Первым таким проектом стал сайт Yahoo, открывшийся в апреле 1994 года. После того, как число сайтов в каталоге Yahoo значительно увеличилось, была добавлена возможность поиска информации по каталогу. Это, конечно же, не было поисковой системой в полном смысле, так как область поиска была ограничена только ресурсами, присутствующими в каталоге, а не всеми ресу
...
Читать дальше »
|
Оптимизация изображений для WWW: разные форматы — разные подходы Оптимизац ия изображений для WWW: разные форматы — разные подходы
Подготовить изображение для размещения в интернете означает подобрать подходящий формат и свойства файла: качество JPEG-сжатия, режим чересстрочного вывода GIF и т.п. Если при этом используется индексированный цвет, может потребоваться коррекция цветовой палитры — чтобы свести к минимуму нежелательные эффекты смешения. Настройка этих параметров для получения приемлемого качества файла и времени его загрузки на веб-странице с учетом средней скорости соединения и называется оптимизацией изображения. В графических редакторах, таких как Photoshop и Illustrator, команда для такой оптимизации называется Save for Web… (Сохранить для веб...). Основное место в окне занимает панель со вкладками, где отображается оптимизируемое изображение. На вкладке Original (Исходный вид) изображение выводится в том виде, в каком оно было создано; на
...
Читать дальше »
|
META-теги — это необязательные атрибуты страницы, которые могут содержать ее описание, ключевые слова к ней, информацию об авторе, управляющие команды для броузера и поисковых роботов, и прочую служебную информацию, не предназначенную для вывода на экраны браузеров. Многие из поисковых систем используют META-теги для качественной индексации сайтов. Команды META вносятся в "шапку" документа - внутри блока ... . Выглядят META-теги следующим образом: - Поле name определяет, за что данный тег отвечает. Длина поля content по стандарту ограничена 1024 знаками, включая пробелы и знаки препинания. Но в поисковых системах разных типов могут быть свои ограничения на длину воспринимаемых мета-тегов. Дополнительно информационные теги перед атрибутом content могут содержать атрибут Lang="ru" - язык, на котором написано значение свойства content, если он не английский. Мета теги делятся на две группы: NAME и HTTP-EQUIV. Мета теги NAME содержат информацию о документе, его авторе и ре
...
Читать дальше »
|
- Указание языка документа. Используется поисковыми машинами при индексировании. Хотя большинство из них умеют различать язык по тексту.. Используется для указания браузеру автоматически переключался на новый адрес. Данная конструкция через 5 секунд начнет перезагрузку окна браузера по адресу http://changer.newmail.ru/. Обычно тег используется на страницах, которые вставляются вместо титульных при переезде сайта на другой адрес. Если этот МЕТА-тег записать в таком виде то текущая страница будет обновляться через N секунд - Определяет действия кэша по отношению к данному документу. Значения параметров: Public - документ кэшируется в доступных для всех кэшах, Private - только в частном кэше, no-cache - не может быть кэширован, no-store - может быть кэширован, но не сохраняется. Этот тег контролирует занесение страниц в кэш-память компьютера. Страницы с этим тегом не будут кэшироваться броузерами. Однако современные версии интернет-броузер
...
Читать дальше »
|
При индексации страницы робот закачивает ее, индексирует, анализирует ссылки и закачивает указанные в них страницы. И так многократно. При обнаружении ссылок на страницы другого сайта, робот начинает закачивать страницы и оттуда, а там новые ссылки на следующие сайты. При этом существует вероятность полного переключения робота на другие сайты, а Ваши страницы останутся недоиндексированными (не навсегда, но, возможно, надолго). Вот тут-то определенная директива, запрещающая индексацию страниц со ссылками на другие сайты, была бы кстати. Такие директивы закладываются в файл robots.txt. Файл robots.txt должен находиться в корневом каталоге и определять, какие файлы и каталоги не индексируются. Например, если сайт называется design.narod.ru, то файл robots.txt должен иметь адрес http://design.narod.ru/robots.txt. Файлы robots.txt во внутренних каталогах сайта поисковыми машинами игнорируются. Наименование файла robots.txt должно состоять из букв нижнего регистра. <
...
Читать дальше »
| |
|
| Календарь новостей |
| « Январь 2026 » |
| Пн |
Вт |
Ср |
Чт |
Пт |
Сб |
Вс |
| | | | 1 | 2 | 3 | 4 | | 5 | 6 | 7 | 8 | 9 | 10 | 11 | | 12 | 13 | 14 | 15 | 16 | 17 | 18 | | 19 | 20 | 21 | 22 | 23 | 24 | 25 | | 26 | 27 | 28 | 29 | 30 | 31 | |
| Статистика |
Онлайн всего: 1 Гостей: 1 Пользователей: 0 |
|