<b>Правила дизайна и подбора содержания</b><ul><li>Создайте сайт с четкой иерархией и текстовыми ссылками. На каждую страницу должен быть переход хотя бы по одной статической текстовой ссылке.</li><li>Составьте для пользователей карту сайта со ссылками на его важные разделы. Если в ней окажется более или немногим менее ста ссылок, возможно, удобнее будет разбить ее на несколько отдельных страниц.</li><li>Сделайте сайт полезным и информативным. Страницы должны включать четкое и точное описание содержания. </li><li>Подумайте, по каким ключевым словам пользователи будут искать Ваши страницы, и включите эти слова в текст на сайте.</li><li>Старайтесь сделать так, чтобы важные имена и названия, другое содержание и ссылки представляли собой текст, а не изображения. Сканер Google не распознает текст, содержащийся в изображениях. </li><li>Следите за тем, чтобы теги TITLE и ALT были точными и информативными.</li><li>Убедитесь в том, что все ссылки работают. Проверьте правильность кода HTML</li><li>Если Вы решите использовать динамические страницы (то есть такие, в URL которых содержится символ "?"), учтите, что не все "пауки" поисковых систем сканируют динамические страницы так же успешно, как и статические. Это поможет сократить размер и количество параметров.</li><li>Не размещайте на одной странице слишком много ссылок (не более 100).</li></ul><b>Технические рекомендации.</b><ul><li>Используйте для проверки сайта текстовый браузер, например, Lynx, потому что большинство "пауков" поисковых систем видят сайт точно так же, как Lynx. Если из-за таких замысловатых ухищрений, как JavaScript, cookies, идентификаторы сеансов, фреймы, DHTML или Flash, просмотреть весь сайт с помощью текстового браузера не удается, то и "паукам" поисковых систем, возможно, будет трудно его сканировать. </li><li>Разрешите поисковым роботам сканировать Ваши сайты без идентификаторов сеансов и без аргументов, которые позволяют отслеживать пути их передвижения по сайту. Эти инструменты полезны для отслеживания поведения конкретного пользователя на сайте, но роботы посещают сайты совершенно иначе. Использование этих инструментов может привести к неполной индексации сайта, поскольку роботам не всегда удается исключить URL, которые выглядят по-разному, но на самом деле ведут на одну и ту же страницу.</li><li>Убедитесь, что веб-сервер поддерживает заголовок HTTP If-Modified-Since. Он позволит серверу сообщать Google, изменилось ли содержание со времени прошлого сканирования. Поддержка этой функции сэкономит Ваш трафик и накладные расходы. </li><li>Воспользуйтесь размещенным на веб-сервере файлом robots.txt. Он сообщает сканерам, какие каталоги можно сканировать, а какие нельзя. Следите за актуальностью содержания этого файла, чтобы случайно не заблокировать сканер поискового робота Google. Инструкции о том, как давать указания роботам, сканирующим сайт, приводятся на сайте <a href="http://www.robotstxt.org/wc/faq.html" target="_blank">http://www.robotstxt.org/wc/faq.html</a>. </li><li>Если Ваша компания решит приобрести систему управления содержанием, проверьте, может ли она экспортировать содержание, чтобы позволить "паукам" поисковых систем его сканировать. </li><li>Не используйте в качестве параметра в URL "&id=2006", поскольку такие страницы Google не индексирует.</li></ul>