Щоб успішно просувати сайт в пошукових системах, необхідно розуміти, як вони працюють. Алгоритми пошукових систем ретельно приховуються їх власниками. Звідки ж можна брати інформацію про те, як функціонує пошукач? Пошукові системи виникли не спонтанно, а на основі великих напрацювань у галузі пошуку інформації (дисципліна "Information Retrieval"). Тому більшість базових алгоритмів опубліковано в наукових роботах, і пошукові системи використовують їх з невеликими варіаціями в своїх програмах.

Співробітники шукачів нерідко розповідають про деталі у інтерв'ю або на спеціалізованих форумах. Фахівці з просування сайту, спілкуючись на форумах, дають багато корисних порад.

Але читання форумів та наукових статей — не єдиний метод. Пошукачі можна досліджувати та експериментувати з ними. Найпростіший спосіб — вивчення коду сторінок, які потрапляють у верхні 10 результатів пошуку.

Що у них спільного? Як ця сторінка не по темі змогла пробитися нагору?

Чому була видана саме ця сторінка сайту? Знайдені відповіді прояснять картину і привідкриють деталі використовуваного алгоритму. Новачки іноді намагаються відшукати магічний відсоток ключових слів у тексті або "правильну" довжину заголовка, усереднюючи дані сторінок, що стоять на перших місцях. Але отримані числа нагадують не філософський камінь, а знаряддя пролетаріату.

Справа в тому, що всі чинники ранжування (а їх десятки) використовуються у взаємозв'язку, і тому вивчення одного з них без урахування інших не дає ніякої корисної інформації. Застосування методів багатомірного статистичного аналізу може полегшити задачу, але це тема окремої великої розповіді. Іноді прояснити картину може експеримент. Створивши десяток сторінок з різною щільністю ключових слів і розташувавши їх на нових щойно створених доменах (щоб виключити вплив сторонніх чинників), в результатах пошуку можна побачити, яка з сторінок виявиться вище за обраним запитом. Здавалося б, чарівний ключ знайдений, але це не так. Хто сказав, що оптимальна щільність ключових слів однакова для різних запитів, для сторінок різної довжини? А поставити експерименти з урахуванням усіх чинників у розумні терміни неможливо.

Доводиться знову повертатися до досліджень.

Я дам пару рекомендацій щодо розкриття алгоритмів. По-перше, вивчайте роботу конкретного алгоритму, а не шукайте всю "формулу релевантністю" відразу. По-друге, шукайте такі приклади запитів і відповідні їм сторінки, в яких досліджуваний алгоритм проявляється в максимально чистому вигляді. Наприклад, вас цікавить вплив ваги сайту за алгоритмом PageRank на пошук. Як виключити інші чинники? Знайдіть сторінки з дуже схожим текстом (повністю продубльовану не можна, щоб Google не виключив одну з них з пошуку). Виберіть з тексту таке ключове слово, яке було б однаково оформлено в обох варіантах, містилося б в одних і тих самих елементах сторінок (заголовок, текст, мета-теги). Слово (або фраза) повинно бути досить рідкісним, щоб не довелося шукати сторінки серед мільйонів інших, але при цьому досить популярним, щоб в результатах не були видані тільки ці дві сторінки і т. д. Задайте запит і порівняйте позиції в результатах пошуку. Чим ближче вони опиняться, тим менший вплив PageRank по даному запиту. Повторіть подібний пошук з десятком інших пар сторінок, щоб виключити випадкові фактори. Порівнюючи отримані результати, зазвичай можна зробити висновки про те, наскільки важливий той чи інший фактор і в яких випадках він застосовується.

Найголовніше, не забувайте думати.

Пошукачі застосовують ті чи інші фактори не для краси формули, а щоб результати пошуку були кращими. Ефективність пошуку прийнято оцінювати за двома основними критеріями: повноті і точності. Чим більший відсоток релевантних (відповідних вимогу) документів серед усіх знайдених, тим вища точність. Чим більший відсоток числа знайдених документів серед всіх документів, що зберігаються в базі пошукача, тим краща повнота. Конкретну реалізацію алгоритму оцінюють ще по ресурсоємності пошуку, як з точки зору обсягу даних, що зберігаються, так і з точки зору витрат машинного часу. Тільки якщо виявлений фактор ранжування або його деталі можуть поліпшити ці показники, не викликавши різкого збільшення потреби в ресурсах, вони правдоподібні. Отже, методи вивчення алгоритмів пошуковиків зводяться до наступного:

  • читання наукових статей про алгоритми пошуку і спеціалізованих форумів;

  • вивчення сторінок з верхівки результатів пошуку;

  • дослідження конкретного алгоритму в максимально чистому вигляді;

  • застосування статистичного аналізу;

  • перевірка виявлених залежностей на поліпшення повноти, точності або зниження ресурсоємності.

Джерело: portal.seomaste.ru