Главная страница

Мэтт Каттс об оптимизации сайтов :

Источник: SEOeggHead

Советов набралось достаточно. После каждого совета дана ссылка на оригинальные посты Мэта Катса (борьца с веб спамом, сотрудника компании Гугл).

1. Мэт рекомендует использовать тире вместо подчеркивания для разделение слов в адресах страниц. 2005.
отсюда

2. Google убивает каждый отдельно взятый спам сайт как только находит его, но постоянно работает над алгоритмизацией этого процесса. Мэт рекомендует не использовать подозрительных JavaScript редиректов, потому что они могут попасть под пристальное внимание в ближайшее время. 2005.
отсюда

3. Google постоянно обновляет свои индексы – в том числе и беклинки и PageRank. Однако публикуют они новые беклинки и ПР примерно раз в 3 месяца. Поэтому новые беклинки и ПР ни о чем не говорят – их появление никак не связано с апдейтом. 2005.
отсюда

4. Скрытый текст: делать цвет текста чуть отличным от цвета фона еще хуже, чем писать “белым по белому”. Испольщование “#EEEEEE” вместо просто белого на абсолютно белом фоне хуже, чем просто белый текст на белом фоне – очевидно же, что вы хотите что-то спрятать. 2005.
отсюда

5. Если вы продаете ссылки, то Мэт рекомендует использовать “презервативы для ссылок”. Иначе репутация вашего сайта может сильно пострадать. Видимо, имеется в виду то, что исходящие ссылки перестанут учитываться (ака непот фильтр). 2006.
отсюда

6. Googlebot может обходить только общедоступные страницы, для доступа к которым не нужно логиниться. Поэтому не забывайте выкладывать в свободный доступ необходимые страницы. Ванесса Фокс. 2006.
отсюда

7. Если вам необходимо использовать флеш на сайте, то не забудьте сделать HTML версию. А флеш версию закройте от роботов через robots.txt. Ванесса Фокс. 2006.
отсюда

8. Используйте понятные все урлы типа “african-elephants.html”, а не бредни в стиле “343432ffsdfsdfdfasffgddddd.html”. Но не переусердствуйте — african-elephants-and-their-habitats-etc-etc-etc-etc.html. Ванесса Фокс. 2006.
отсюда

9. Задайте для каждой страницы уникальные, описывающие содержимое страницы заловки и теги TITLE. Ванесса Фокс. 2006.
отсюда

10. Количество редиректов при клике на урл сведите к минимуму. Ванесса Фокс. 2006.
отсюда

11. Количество параметров в урле сделайте минимальным – в идеале 1-2 параметра, если это возможно. Ванесса Фокс. 2006.
отсюда

12. Неиспользуйте в урлах параметр “id=” для чего бы то ни было кроме идентификатора сессий. Иначе вы рискуете не попасть в индекс Гугла. Ванесса Фокс. 2006.
отсюда

13. Гугл не одобряет покупку ссылок с целью наращивание ПР и будет с этим бороться. 2006.
отсюда

14. Черные оптимизаторы использует Google Analytics для своих сомнительных исследований, но обычных владельцев сайтов надо убеждать в пользе различных исследований сайта. 2006.
отсюда

15. Google борется с продажей и покупкой ссылок и Мэт отмечает, что они в этом преуспели – как алгоритмически, так и вручную. Сайты, продающие ссылки могут потерять доверие в поисковых системах. 2006.
отсюда

16. В 2006 году Google уделяет особое внимение определению спама не только на английском языке, а на итальянском, испанском, китайском и других. 2006.
отсюда

17. Используйте 302-й редирект для временного перенаправления пользователей и 301-й редирект для постоянного. В общем, если сайт переехал, то 301-й, если просто надо временно кидать на другие страницы, то 302-й. 2006.
отсюда

18. Canonicalization (каноникализация?) – процесс выбора наиболее подходящего урла, обычно для отображения главной страницы, например, www.example.com или example.com или www.example.com/http://www.dom-spravka.info/. Потому как все эти урлы разные, то сервер может отдавать разный контент по каждому из них. Поэтому Google пытается выбрать лучший и отсечь остальные. Чтобы помочь Google используйте везде одинаковые урлы и ставьте 301-й редирект с неправильных на правильный. 2006.
отсюда

19. Не стоит использовать “URL removal tool”, чтобы удалить урл domain.com, если вы волнуетесь о каноникализации и у вас в индексе два урла domain.com и www.domain.com. Так вы удалите весь сайт целиком! 2006.
отсюда

20. Поисковые системы могут использовать механизм каноникализации для удаления ненужных слешей на конце урла, перевода верхнего регистра в нижний, удаления идентификаторов сессий на форумах и других подобны движках. 2006.
отсюда

21. 404-я ошибка (документ удален, но может появиться) воспринимается как 410-я (удалени и никогда уже не появится). Большинство веб мастеров используют 404-ю именно как 410-ю. 2006.
отсюда

постоянная ссылка