И опять про robots.txt

Robots.txt: историческая справка

Стандарт для robots.txt никому не принадлежит, а начало его использования приходится на 1994 год. Сейчас robots.txt используется всеми популярными поисковыми системами. Файл robots.txt – это The Robots Exclusion Protocol, то есть файл исключений для поисковых роботов. Robots.txt противоположен по смыслу файлу sitemap.xml: robots.txt ограничивает поисковым роботам обход сайта, а sitemap.xml наоборот – указывает файлы для индексирования. При этом robots.txt первичен – прежде, чем поисковый робот начинает загружать какие-либо страницы сайта, он обращается именно к файлу robots.txt, поэтому основной директивой файла robots.txt является директива запрета индексирования – Disallow.

Основные базы знаний по использованию robots.txt – это сайт www.robotstxt.org (на английском языке) и robotstxt.org.ru. Читать далее

Как правльно расставлять ключевые слова

Ключевые слова — это один из важнейших моментов (факторов), помогающих сопоставлять запрос, задаваемый пользователем в поисковике и вашей страницей.  Если ключевые слова из запроса пользователя и ключевые слова на вашей странице будут совпадать — есть шанс, что ваша страница (ваш сайт) будет показан в результатах поиска. Есть шанс — но не гарантия. Почему ? да потому, что просто наличие ключевых слов вашем тексте еще не гарантирует, что поисковая машина посчитает это достаточным, чтобы поставить ваш сайт на первое место в поисковой выдаче.

Читать далее

Как проверить количество проиндексированных страниц

В яндексе в строке поска вводим: 

host:seomoney.me

Вместо seomoney.me впишите адрес вашего сайта без http.

Теперь давайте проверим сколько страниц проиндексировал Гугл. Для этого переходим на google.ru и в строку поиска вписываем следующий код:

site:seomoney.me

Здесь также меняем адрес сайта на свой.

Теперь нам осталось проверить в Рамблере. Для этого переходим на сайт rambler.ru и в строку поиска вписываем адрес вашего сайта. Если ваш сайт не новый, то значения должны отличаться от нулевого значения.
 

Учебный запрос: склейка доменов

Мне тут сегодня пришлось для одного нашего старого сайта под новый домен настройки менять (в связи с последними указами о переносе сайтов в доменную зону by). Не смотря на то, что сайт был разработан давно, хоть немного потешила себя тем, что мы уже тогда делали сайты, неплохо заточенные под поисковые системы – по крайней мере – у заказчиков был весь необходимый инструментарий (иногда даже излишний) и для  правильных тайтлов страниц, и для метатэгов. (Другой вопрос, что не все заказчики считают нужным этим пользоваться.) Читать далее

Как правильно писать тексты для сайта. Копирайтинг

Занятие было достаточно сложным. очень много новых понятий и матстатистики. Но — было интересно. Честно говоря — мне понадобилось время, чтобы переварить всю информации — и то, я не уверена, что  могу свободно рассуждать на эту тему. И так — каким должен быть код и текст на сайте?  Читать далее

Как проверить частоту вхождения

Частота вхождения — это то, сколько раз выбранный (ключевой, учебный) запрос встречается в анализируемом тексте. Увеличение частоты вхождения (в разумных пределах, конечно) помогает увеличению факторов ранжирования страницы поисковой системой.  Читать далее