Ноябрь 26, 2005
Основные правила web-оптимизации (Часть 3)
Как только я осознал, что понимание слова «лучший» субъективно, для меня стало важнее понять, что «лучше» для поискового сервера, а не цепляться за свою точку зрения.
Я понял, что если я хочу добиться хороших результатов, то не важно, что думаю я, важна только точка зрения поискового сервера. Именно благодаря пониманию этого я начал заниматься инженерным анализом (reverse engineering) сайтов своих конкурентов.
По мере того, как я пытался найти модель в определении лучших результатов поиска, мне стало понятно, что казалось, существовало несколько признаков сайта, по которым поисковые сервера определяли «хорош» ли он для этого запроса. Самыми главными (вспомним, что дело было в далеком 1996 году) были ключевые слова в мета-тэге keyword, ключевые слова в тэге title и мета-тэге description. Как только я понял, что и где нужно искать, обнаружились также плотность ключевых слов, структура ссылок, тэги Н или такие смутные характеристики, как мета-обновление (meta refresh).
Просмотрев буквально тысячи сайтов в течение нескольких месяцев, я понял одно: сайты, появлявшиеся первыми в результатах поиска, были самыми страшными сайтами на этой планете. Голый белый фон, разноцветный текст, непропорциональные тэги Н – все это делало сайты первой десятки похожими на записку с требованием выкупа, написанную третьеклассником-двоечником. Все это нельзя было назвать торговым представлением. Никто не мог дать никакого объяснения по поводу того, какие характеристики использовались, когда эти сайты были признаны «лучшими».
Как? Как мог поисковый сервер так ошибиться? Затем мне все стало ясно. Нельзя написать программу, которая будет ставить плюсики документам, основываясь на эмоциональной реакции. Нельзя приказать программе разместить симпатичный сайт в первой десятке результатов. Нельзя заставить программу выделять сайты с легкой навигацией, потому что робот-паук не знает, что такое «легко». Итак, все эти прикольные современные мульти-медийные элементы web-дизайна и функциональность могут игнорироваться или быть наказуемыми, а то, что можно измерить математически, лишено всякой эстетической ценности.
Робота-паука можно легко запрограммировать на сложение и вычитание. Можно запрограммировать вычитание баллов, если определенный набор букв повторяется в определенных частях документа. Другими словами, сайту могут быть выписаны штрафные санкции, если одно и тоже слово несколько раз появляется в тэгах title или keyword, или многократно повторяется в невидимом тексте. Роботу можно приказать искать такие элементы как текст того же цвета, что и фон, но после всех этих лет самым светлым программистским умам придется придумать что-нибудь более подходящее, чем простое игнорирование мета-тэга keyword – и это лишь один пример ограниченности роботов-пауков. С другой стороны, нельзя увеличивать рейтинг сайта только за внешний вид или легкость в использовании. Или за больший объем продаж. Другими словами, за все то, что было бы принято во внимание человеком, прежде чем признать какой-либо сайт самым лучшим.
Мое решение написать программу, которая находила бы все «хорошие» сайты и размещала их в лучших результатах поиска, намного сложнее (если вообще выполнимо), по сравнению с написанием программы, которая находила бы самые плохие сайты и размещала их в последних результатах поиска.
Возможно, вы сейчас спрашиваете себя, какое отношение это имеет к тому, чем вы занимаетесь или как вы видите свои отношения с использующими роботов-пауков поисковыми серверами. Я лишь могу рассказать вам, какое воздействие понимание этой концепции оказало на меня, и надеяться, что вы хотя бы ее обдумаете.
продолжение следует...
Часть 2 |
Часть 4 |
Разместил:
Источник: Боб Масса