Что было…
Раньше всё было проще. Тогда, на заре интернет-бизнеса, поисковые
машины были не более разумны, чем, например, функция поиска в
«Ворде». Впрочем, и Всемирная Сеть была не такой уж и глобальной, и
пользователь мог решить задачу поиска нужной информации простым
перебором дословных совпадений. Тогда и в самом деле можно было за
адекватное время пересмотреть все сайты соответствующей тематики. Давно
это было…
Потом пришли первые оптимизаторы. Назывались они как-то по-другому,
но разве сейчас это важно? Пришли оптимизаторы, и работа ископаемых
поисковиков была парализована. Обмануть кондовые алгоритмы оказалось не
просто, а очень просто, чем новоявленные бизнесмены и пользовались.
Пользователи поисковых систем, однако, новшество в должной мере не
оценили. Так и началась беспрецедентная гонка поисковиков и
оптимизаторов - гонка, выгодная для обеих сторон. Кроме, разумеется,
владельцев сайтов.
Найти контент, максимально соответствующий поисковому запросу
(то есть, содержащий информацию, необходимую пользователю поисковика) -
задача, к решению которой можно подойти с самых разных сторон. Можно
идти вслед за оптимизаторами (напомним, речь идет о наших предках - об
оптимизаторах, основная задача которых заключается в обмане поисковых
машин) и «учить» поисковые алгоритмы отличать самые популярные методы
«накруток». Это делалось и делается до сих пор: многие белые методы
оптимизации на наших глазах приобретают серый оттенок, а потом и вовсе
чернеют. Можно вводить какие-то дополнительные факторы, например,
правила оптимизации, исключающие возможность обмана, и внешние
показатели вроде индекса цитируемости, позволяющие (в идеале) оценить
«авторитетность» ресурса. Это тоже делалось и делается. Проблема в
другом: и разработчики поисковых систем, и оптимизаторы, все понимали,
что это - лишь костыли, позволяющие урегулировать какие-то частные
проблемы, и вместе с тем открывающие путь для проблем новых.
Что есть…
Казалось бы, явление совершенно очевидное и предсказуемое. Но лежащую
на поверхности истину, гласящую, что магистральный путь развития поиска
в интернете - совершенствование алгоритмов анализа самого текста, -
мало кто воспринял всерьез.
Многие специалисты, по долгу службы или по велению сердца
отслеживающие все тенденции в этой области, всерьез насторожились не так
давно, около года назад - когда стало очевидно, что Google
коренным образом сменил алгоритмы ранжирования. Сайты, обладающие
хорошим контентом, стремительно полезли вверх, вытесняя хорошо
оптимизированные, богатые внешними ссылками ресурсы куда-то в подвал.
Это заметили все, кого хоть сколько-нибудь интересует данный вопрос.
Заметили - и пожали плечами. Да, Google, при всей своей
популярности, «продажного» трафика почти не дает. Или дает, но в
количествах, несопоставимых затратам на оптимизацию под прогрессивный
алгоритм.
Всё бы это было, наверное, правильно, если бы не один нюанс: хорошо
известно, что именно Google идет в авангарде поискового
прогресса. И алгоритмы, применяемые этим поисковиком, рано или поздно
вынуждены копировать разработчики других, более коммерциализированных
поисковых машин. В том числе и всенародно любимого Яндекса. И для
тех оптимизаторов, которых этот нюанс не обошел стороной, внезапное
«падение» в Яндексе сайтов с высоким показателем цитируемости
неожиданностью не стало. Поисковые алгоритмы совершенствуются и всё
меньше нуждаются в «костылях» наподобие учета внешних факторов.
И что будет
Дальше будут неожиданности. Или, напротив, вполне предсказуемые
изменения - в зависимости от уровня информированности наблюдателя.
Задача, стоящая перед поисковиком - найти контент, максимально
релевантный запросу, - будет решаться всё лучше. И роль технических
факторов в самом ближайшем времени будет сведена к минимуму. Поисковые
машины, включая Яндекс, всё более уверенней отличают хороший контент от
плохого. Хороший - разумеется, в контексте запроса.
Характерно, что для этого поисковая машина вовсе не должна обладать
искусственным интеллектом. Всё гораздо проще: задача может быть успешно
решена (и уже решается тем же Гуглом, в меньшей степени - Яндексом)
при помощи обыкновенного контекстного анализа. Скажем, релевантность
текста запросу «Наполеон» может быть вычислена просто на основе анализа
слов и словосочетаний, наиболее часто употребляемых в этом контексте.
Например, «торт», «полководец», «коньяк», «император». Так, текст,
рассказывающий о Наполеоне Буонапарте, будет несравнимо более
релевантен, чем повествование о новом ресторане «Наполеон». А разве не
этого хочет пользователь, набравший «наполеона» в строке поисковика?
Преимущество метода контекстного анализа текста заключается в том,
что углублять его можно до бесконечности - позволяли бы машинные
ресурсы, да была бы обширная база данных. Контекстные базы пополняются
день за днем, да и с ресурсами у крупных поисковых систем проблем особых
не возникает. А это означает, что уже в самом ближайшем времени роль
внешних факторов и даже метатэгов может быть низведена практически до
нуля. Поисковик получает возможность работать с контентом напрямую, всё
более уверенно отличая качественный информативный текст от «мусора». Так
что у нас есть все основания полагать, что недалек тот день, когда
понятия «оптимизация» и «разработка контентного наполнения» станут
синонимами.
Надолго ли - бог его знает. Скорее всего, надолго. Может быть,
навсегда - если в распоряжении оптимизаторов не попадут полные и
достоверные контекстные базы, что практически исключено. А
следовательно, единственная методика поискового продвижения сайтов,
которая выживет в новых условиях, единственная методика, на которую
стоит делать ставку - это SEO-копирайтинг.
По крайней мере, мы в этом твердо уверены.
Источник: http://webstat.ws/st.php?st=41 |