Як не потрапити під фільтр Google панда. Панда від Google: що нового? Як виявити дію Панди

мкр. Чорна Річка, б.15 Росія, Санкт-Петербург 8 812 497 19 87

Алгоритм Гугл Панда: поновлення Google Panda 2018


ПОДІЛИЛИСЯ

Оновлення Google Panda змінило світ SEO.

Круто якщо ні, але краще прочитайте цю статтю, буде корисно дізнатися що змінилося з використанням алгоритму Google Panda і як уникнути зниження пошукової видачі Google.

Оновлення Google Panda. Довідкова інформація з SEO

Ознайомтеся спочатку з інфографікою.


З чого все почалося.

До Panda SEO чимось став нагадувати «брудний бізнес», і якісні сайти не завжди вигравали в ранжируванні.

Оскільки все більше і більше ставало неактуальних сайтів, плагіату та сайтів з поганим змістом, вони стали перевершувати кількість добрих у результатах пошуку.

Для боротьби зі спамом Google знадобилося нове оновлення.

Оновлення Google Panda. Що це таке та що воно дає?

Panda, ймовірно, увійде в історію як одне з найвідоміших оновлень Google.

Головним завданням Panda було покращити роботу користувачів, позбавивши верхні пошукові місця спам-сторінок.

Нове оновлення та алгоритм враховували репутацію сайту, дизайн, швидкість завантаження та інтерфейс користувача, щоб людям було зручніше.

Як оновлення Google Panda торкнулося сайтів

Ефект Panda був далекосяжними — і все ще відчуваються багатьма сьогодні.

Початкове оновлення в 2011 році торкнулося приблизно 12% пошукових запитів, що означає, що 12% рейтингу Google різко змінилося.

Особливо це відчувалося великими контент-фермами, включаючи About.com, eHow, Demand Media та Yahoos Associated Content.

Понад 80% сайтів, на які негативно вплинуло оновлення Panda, як і раніше, справляються зі збитками.

Хронологія оновлення Google Panda

Panda регулярно оновлюється з моменту її появи у 2011 році.

Оновлення відбувається, коли Google переглядає всі сайти в Інтернеті та перевіряє їх на алгоритм Panda. Оновлення – це фактична зміна алгоритму Panda.

Таким чином алгоритм Panda оновлювався з 24 лютого 2011 року до 17 липня 2015 року.

Цілі оновлення Google Panda

Протягом багатьох своїх змін основна увага в оновленнях Panda приділялася відсіюванню низькоякісного контенту з результатів пошуку користувачів.

До проблем, які він зачіпає, належать:

  • Убогий контент - сторінки зі слабким або невеликим змістом; якщо у вас кілька сторінок з парочкою пропозицій у кожній, вони, швидше за все, будутькласифіковані як мізерний контент. Якщо тільки на одній або на двох сторінках, тоді все ОК. Але якщо таким є весь сайт, це «червоний прапор».
  • Контент, що дублюється, — контент, який повторюється. Це може бути вміст, який копіюється з інших сторінок в Інтернеті або відображається на декількох сторінках вашого сайту з незначною зміною тексту.
  • Неякісний контент – будь-який контент, позбавлений адекватної інформації.
  • Машинний або автогенерований контент — будь-який вміст, що автоматично формується спеціальними алгоритмами, додатками або іншими джерелами, в яких не задіяні люди.
  • Поганий склад - занадто багато помітних помилок у стилістиці та граматиці.
  • Забагато тем в рамках одного сайтуякщо ваш сайт не має чіткої теми і охоплює кілька тем, замість того, щоб зосередитися на чомусь одному
  • Відсутність авторитетної думки — контент із неперевірених джерел
  • Занадто багато 404 помилок чи редиректів
  • Заповнення ключовими словами — велика кількість ключових слів у спробі маніпулювати рейтингами
  • Контент-ферми – велика кількість коротких, неякісних сторінок
  • Забагато реклами — якщо на сторінці більше реклами, ніж корисного тексту.
  • Низькоякісні партнерські посилання — це низькоякісний контент, що веде на партнерські сторінки.
  • Контент, який не відповідає пошуковим запитам – сторінки, що показують некоректну інформацію.
  • Сайти, заблоковані користувачем – сайти, заблоковані користувачами через розширення.

Як оновлення Google Panda вплинули на SEO-стратегію

Наслідки оновлення Panda відчув весь світ маркетингу, і її використання призвело до істотного зрушення в SEO.

В основному оптимізатори повинні тепер орієнтуватисяна зручність інтерфейсу сайту для відвідувачів.

Ран її головна мета SEO полягала в тому, щоб контент був доступний для пошукових систем та відповідав необхідним запитам за допомогоюдодавання необхідних ключових слів і побудові посилальної маси, що веде на необхідні сторінки, що просуваються.

Тепер же кцент робиться на користувача,а не на алгоритми пошукових систем.

Це акцент на якість, а не кількість.

Наприклад, багато хто думав, що шлях до першого місця Google - це викладати контент щодня, щоб Google постійно його індексував.

Але через Панди, якщо ви ведете блог просто заради того, щоб вести, можна принести більше шкоди, ніж користі. Кожна опублікована вами стаття має бути якісною, унікальною та надавати читачам необхідні відповіді та інформацію.

Якісний контент, дизайн та корисність = заслужений, високий ранг.

Щоб зайняти перше місце, вам потрібно його заслужити.

Цитата від представника Google резюмує: "Творці контенту не повинні думати, скільки відвідувачів у них було в день, а скільком відвідувачам вони допомогли".

Як дізнатися, чи постраждали ви від оновлення Google Panda

Найбільш очевидним попереджувальним знаком є ​​раптове падіння трафіку.

Якщо це сталося з вашим сайтом під час відомого оновлення алгоритму, ви, ймовірно, постраждали від штрафу Panda.

Інший спосіб визначити – подивитися на загальну якість вашого сайту. Зніміть рожеві окуляри, та дайте відповідь собі на запитання.

  • Чи є ваші показники відмов високими?
  • Чи поділяються вашим контентом і чи отримує він коментарі?
  • Чи зручна навігація та посилання?
  • Перевірте загальну якість сайту.Якщо у вас є сумніви, то Google явно теж;)

Постраждали від Панди? Як реабілітуватися

Перший крок: не панікуйте. Натомість приступайте до роботи.

Оновлення Panda відбуваються приблизно раз на місяць, що дає трохи часу для роботи.

Між оновленнями, якщо ви зробите правильні кроки, почнете бачити деякі поліпшення у своєму рейтингу. Іноді Google повторно оновлює всі зміни.

Тепер до конкретики. Коли Panda завдає удару, потрібно відновлюватись через контент.

Як Panda перевіряє ваш контент

Оскільки Панда тільки за якісний контент, це те, з чого вам потрібно починати.

Насамперед, не видаляйте одним махом весь контент, навіть неякісний. Краще виправте те, що є, і додайте те, чого йому не вистачає.

Якщо прибрати все, можна зробити ще гірше.

Якщо ви сумніваєтеся як сторінку, перейдіть до своїх метриків. Сторінки з високими показниками відмов і з низьким рівнем проведення часу на сайті людини говорить про те, що з контентом явні проблеми.

Якщо ви не впевнені, то

Список досить значний вийшов))

Тому почніть зі сторінок, які в ТОПі і приносять найбільше трафіку. Щоб дізнатися які саме це сторінки (якщо ще не знаєте), перегляньте аналітику (можна через Google Analytics).

Крім власного контенту важливо стежити за тим, що пишуть користувачі сайту.

Не весь контент, написаний користувачами, поганий, але він підпорядковується тим самим стандартам якості, що будь-який інший контент на вашому сайті.

Зверніть особливу увагу на якість, якщо ваш сайт містить форуми, і там багато коментарів.

Алгоритм розглядає коментарі як частину контенту. Тому, якщо ці коментарі містять корисну інформацію на додаток до змісту, це може бути хорошим доповненням до вашого сайту.

А низькоякісні коментарі можуть зашкодити вашому сайту. Але не видаляйте коментарі повністю. Це може пошкодити ваш сайт з погляду взаємодії з користувачем.

Яким є статус оновлення Google Panda сьогодні?

Гугл Панда все ще живаі здорова і продовжує розвиватися.

Фактично Panda отримала підвищення: у 2016 році вона стала частиною основного алгоритму Google.

Найбільша зміна, яку помітили більшість користувачів, - це кінець офіційних оголошень.

Panda стала основою, тому що вона більше не потребує великої кількості змін.

Тобто основна увага приділяється якісному контенту та досвіду користувача.

Завершення оновлення Google Panda

Panda революціонізувала SEO. Для більшості зміни були на краще.

Сьогодні принципи Panda – це спільні стратегії SEO.

Тому, якщо ви їх не використовуєте, настав час приділяти серйозну увагу Панді.

Думаю, стаття була корисною навіть тим, хто не особливо в темі SEO.

Давним давно, в далекій галактиці, пошукова система Google створила алгоритм, який отримав назву Panda. Розробили цей алгоритм лише дві людини, це Аміт Сінгал разом Метт Катс. Цей алгоритм відрізняється від своїх побратимів тим, що насамперед він розрахований на людський фактор. А також алгоритм враховує інші фактори при ранжируванні сайту.

У цьому матеріалі ми постаралися зібрати все, що може стосуватися алгоритму Google Panda, як його визначити та як під нього не потрапити, щоб з успіхом просувати сайт.

Що враховує алгоритм Google Panda

Чи унікальний контент на сайті

Алгоритм Панда насамперед звертає увагу, чи не зустрічається на інших сайтах такий самий контент. Більш того, він шукає не тільки схожі тексти на сайтах або сторінках, а також враховуються і фрагменти текстів. Інакше кажучи, унікальність тексту визначається з допомогою відсоткового співвідношення. Допустимо, якщо стаття була скопійована повністю, значить, унікальність дорівнює нулю. Якщо ж скопійована частина тексту, унікальність може бути 80%, наприклад.

Алгоритм розраховує унікальністьяк самого сайту, так і окремої сторінки, у тому числі щодо інших сторінок сайту. На додачу до цього алгоритм панда має на озброєнні такий інструмент, як шаблонність. Іншими словами він може визначити схожі сторінки на різних сайтах, навіть якщо вони просуваються за допомогою різних ключових слів.

Більше того, цей алгоритм звертає увагу і рекламу. Якщо на сайті, який надає юридичні послуги, розміщено рекламу конкурентів, то це алгоритм фіксує та враховує при ранжируванні сайту.

Завдання пошукових систем давати користувачеві відповідь на запитання. Завдання алгоритму Панда трішки спустити на землю, власників сайтів, які мають на меті тільки заробіток. Загалом, мета цього алгоритму дуже проста. У пошуковій видачі мають бути лише унікальні, актуальні та корисні сайти. Ось приклад, як створювати хороший освітній контент.

Кількість та якість посилань (посилальний профіль)

Алгоритм також враховує посилання. Причому він враховує всі посилання і вхідні і вихідні. Вимога всього одна, і той і інший сайт має бути однією тематикою. Звичайно ж, алгоритм відслідковує кількість вхідних та вихідних посилань, але це не найважливіший фактор під час ранжування сайту. Перше, що його цікавить, – це людський фактор. Іншими словами, він уважно стежить за користувачем на сайті. Що він робить, скільки часу проводить, чи він читає матеріал, чи заповнює форми і так далі. Звичайно, розробники проробили величезну роботу, зі створення та обкатування цього алгоритму. По суті, цей алгоритм зажадав шліфування та інших алгоритмів, щоб пошукова система могла видавати лише якісні сайти.

При введенні цього алгоритму під час ранжування сайту, потрапити до ТОП пошукової видачіможуть лише реально корисні та якісні сайти. Саме цей алгоритм і зробив пошукову систему Google потужним пошуковим інструментом. Це підтверджується тим, що аудиторія Google росте в геометричній прогресії. Більше того, бюджет компанії також росте як на дріжджах. Адже обдурити користувача можна, використовуючи так звані чорні методи просування. Різні фішки та агресивну рекламу. А ось інвестора обдурити не можна, і він чудово знає та усвідомлює, що Google – справа прибуткова.

Звичайно, таке зростання компанії це заслуга не лише одного алгоритму. А тепер повернемося до статті.

Поведінкові фактори

У цей показник входить ціла низка критеріїв, такі як:

  • показник відмов;
  • скільки часу проводить людина на сайті за одну сесію;
  • скільки сторінок він відвідав за один візит;
  • чи повертається він на сайт і як часто;
  • скільки показується сайт у видачі та скільки переходять за посиланням (CTR).

Усе це алгоритм відслідковує, причому робить це для кожного користувача. Тобто він стежить за кожним відвідувачем і уважно дивиться, що він робить, чи переходить за посиланнями, чи заповнює форми, прокручує сторінку вниз чи ні і так далі. Таким чином, алгоритм визначає, чи відповідає на запити користувач сайт або окрема сторінка і чи знаходить користувач відповідь на запит, введений у пошуковий рядок.

Як зрозуміти, що сайт потрапив під фільтр Panda та що робити?

  1. Різке падіння трафіку.Якщо ви виявили, що кількість переходів з Google різко знизилася, то однією з можливих причин може бути Panda і технічні проблеми сайту, які не були виявлені:
    - Повільна відповідь сервера;
    - Недоступність сторінок та інші.
    Щоб перевірити це уважно проаналізуйте цей Google Analyticsі Search Console.
  2. Акуратніше із посиланнями.Хоча посилання для Google залишаються ключовими факторами ранжирування, не варто занадто загострювати увагу на них, тому що пошуковик давно навчився відрізняти природні посилання від закуплених, а також виявляти неприродний приріст маси посилань.
  3. Погані тексти.Тексти написані не людською мовою, з безліччю орфографічних помилок, короткі, не унікальні і розміщені у вигляді газетної смуги - уб'ють будь-який сайт, оскільки служать сигналом для панди знизити сайт у видачі.
    Що робити? Пишіть якісний, унікальний контент, який корисний для користувачів, ретельно його перевіряйте та редагуйте.
  4. Немає відео та фото.Якщо Ви не розбавляйте зміст статей та сторінок сайту, картинками, інфографікою та відео, то оку читача просто нема за що зачепитися і якщо це погано для користувача, значить це не подобається Панде.
    Додайте більше оптимізованих фото та відео, заповнюючи атрибути alt та title.
  5. Мало внутрішніх посилань.Зайшовши на сайт, користувач повинен легко і не вимушено пересуватися по ньому, потрапляючи саме на ті сторінки, які він очікував побачити. І тут дуже важливо зробити грамотне внутрішнє перелінкування, яке дозволить переходити на такі сторінки. Також відмінним рішенням буде розмістити віджети з останніми записами в блозі, найпопулярнішими статтями та найцікавішими розділами.

І пам'ятайте: «Краще не злить Панду!».

Здрастуйте, шановні читачі блогу сайт. У цьому пості я хочу поміркувати про те, що в мене зараз крутиться в голові. В основному всі думки зайняті проблемою, під які мене догодило за останні півтора роки. За наведеним посиланням ви знайдете статтю, де я описую ситуацію, що склалася, включаючи листування з техпідтримкою дзеркала рунета.

За минулі з моменту виходу тієї публікації чотири з половиною місяці, я по черзі (починаючи з перших постів за 2009 рік) вичитував і вносив редагування (прибрав можливий спам будь-якими словами, а так само приборкав внутрішнє перелінкування до осудних меж) у 360 своїх статей з 411 наявних на даний момент. Декілька десятків з них були повністю переписані, у багатьох десятках оновлено скріншоти, внесено виправлення, доповнення тощо.

Загалом робив усе, що міг, не покладаючи рук. Виявилася за цей час жахлива працездатність (по 12 годин на добу орав і від 2 до 6 статей примудрявся за цей час підгортати). З'явилися і перші позитивні результати в плані позицій, що покращилися, і збільшеної відвідуваності з Яндекса і Google.

Ось тільки, як і раніше, мучать сумніви з приводу того, під яким саме фільтром Гугла я сиджу ось уже півтора роки — Панда чи Пінгвін. У зв'язку з цим постає питання, а чи потрібно морочитися з відбором спамних зворотних посилань і додавати їх до Disavow links, як це радять робити всім, хто постраждав від Пінгвіна Та й як це зробити при 30 000 беків у Google Вебмайстрі?

Послаблення фільтрів з Яндекса та Гугла

Як я вже згадував, працездатність зараз має бути просто феноменальна і було б здорово її прикласти ще до чогось корисного і перспективного, бо статей для переробки залишилося вже не багато, та й спаму в них вже не знайти, хіба що тільки дрібниці різні підправляю.

Хлопців, відразу вибачаюсь, що далі використовуватиму нетолерантний «трафік», а не кількість відвідувачів з такої-то пошукової системи, бо так реально простіше і доступніше виходить (менше слів, а більше сенсу). Нічого особистого тільки бізнес. Спасибі.

25 вересня я виявив, що отримую з Яндекса трафіку в два-три рази більше, ніж зазвичай останнім часом.

На загальній картині відвідуваності це позначилося приблизно так:

По-перше, це було дещо несподівано, бо якраз до цього часу я повністю змирився з плачевною ситуацією, що склалася, і просто продовжував орати без особливих претензій на результат. Причому, ще влітку я часом був готовий рвати і метати через безсилля чогось змінити на краще, а тут повністю перестав смикатися.

По-друге, не маючи досвіду виходу з-під фільтрів, не знаю що й думати про майбутні перспективи. Трафік Яндексом повернувся не весь і я себе заспокоюю тим, що й падав він не відразу, а протягом кількох апів.

До речі, загнати по фільтр можна не тільки тонний посилань з ГС (у мене на початку цієї весни спостерігався жахливий сплеск посилального в кілька тисяч беків і не до одного з них я не був причетний). Можуть намагатися грати і поведінковому, тобто. погіршувати метрики як поведінки користувачів у видачі, і на сайті.

Наприклад, все тієї ж весни у мене з'явився тисячний трафік з якихось сайтів анекдотів, приколів та іншої нісенітниці, які нічим іншим, як ГС, і назвати було важко. Що це було – не зрозуміло. Наприклад, при переході до читання чергового анекдоту користувач потрапляв на мою сторінку 404 і не знав, що робити. Довелося навіть під таких відвідувачів, щоб хоч трохи знизити показник їхніх відмов.

Пінгвін досі дотримується принципу загального оновлення алгоритму фільтрації і можна чітко відстежити (якщо цим заморочитися) всі його апдейти. Зараз, до речі, схоже його чергове оновлення до версії 2.1, що підтверджують відповідні гілки на Сео форумах.

Панда ж останнім часом стала фактично частиною загального алгоритму, який Google використовує під час ранжирування, і яскраво виражених її апдейтів для всіх сайтів відразу вже, швидше за все, не буде. Проте, якщо повернутися трохи в історію, то за датою початку падіння трафіку можна зробити висновок, під який саме фільтр потрапив той чи інший ресурс.

Як визначити під яким фільтром Google знаходиться сайт – під Пандою чи під Пінгвіном

До речі, саме такий спосіб пропонує використати буржуйський онлайн ресурс Barracuda, а саме його продукт під назвою Panguin Tool .

Проблема в тому, що цьому сервісу необхідно буде надати доступ до статистики вашого лічильника Google Аналітікс, А він уже накладе на видертий з нього графік точні дати апдейтів Панди та Пінгвіна, щоб зрозуміти що саме з цього дуету підкосило ваш ресурс.

Спочатку я подумав, що у мене є принаймні дві причини цього не робити:

  1. По-перше, у мене Аналітікс ще й року не варто, бо раніше мене повністю влаштовувала, ну, і лічильник теж цілком собі інформативний.
  2. По-друге, на тому ж у мене висить і Адсенс, а це гроші, які нікому не варто довіряти. Але трохи згодом я згадав, що Аналітікс, як і Метрика, має можливість створення гостьових акаунтів, чим я і спробував скористатися.

Загалом, я зайшов у своєму основному акаунті Аналітикса в адміністрування та делегував права на перегляд та аналіз статистики іншому своєму аку в Гуглі, до якого взагалі нічого такого не прив'язано.

Після цього в тому браузері, де я вже був авторизований під цим не надто важливим обліковим записом, перейшов за посиланням «Log-in to Analytics» зі сторінки Panguin Tool і мене попросили підтвердити моє бажання надати цьому додатку дані зі статистики з Аналітикса.

Я не заперечував. Після цього мене попросили вибрати конкретний лічильник.

Ну, і зрештою надали бажаний графік з датами релізів Панди та ПінгвінаАле, як згадував трохи вище, лічильник цей у мене стоїть недавно і початок 2012 року він не захопив.

Тому визначити, який саме фільтр наклав Гуглна мій сайт, таким чином, не вдалося. До того ж, наприкінці весни та на початку літа цього року я взагалі знімав код Аналітикса з не зрозумілих мені зараз причин. Те зниження трафіку з Google, яке мало місце навесні цього ж року, начебто ні з Пандою, ні з Пінгвіном не корелюється.

Але, можливо, вам пощастить більше. На графіці та в наведених нижче таблицях ще можна переглянути статистику за приземлюючими сторінками та за ключовими словами, з яких йшов трафік.

Другий спосіб визначитися з тим, який саме звір вас покусав, це подивитися на непрямі ознаки (відбитки зубів). Наприклад, вважається, що при попаданні під Пінгвін у вас просядуть позиції лише за окремими запитами, цільові сторінки яких будуть спамлені поганими вхідними посиланнями.

При Панді ж, швидше за все, буде загальне просідання трафіку, начебто у вас, хоча про саму доречність вживання цього терміну точаться суперечки. У мене ситуація у цьому плані більше схожа на другий варіант.

Однак, зараз спам був усунений, але зміни на краще по Гуглу почалися тільки після руху по Яндексу. У зв'язку з цим я, як і раніше, залишаюся в розгубленості з приводу своїх подальших дій та їхньої доцільності.

Disavow links — як повідомити Гуглу про погані посилання на сайт

Робиться це на вкладці "Пошуковий трафік" - "Посилання на ваш сайт". Над наведеним списком у вас буде три кнопки, які дозволять вивантажити всі знайдені в Google беки. Мені найбільше подобається останній варіант, бо там буде сортуватися за датою появи беклінків.

Однак, тут буде наведена інформація лише по 1000 доменів, з яких проставлено на ваш сайт найбільше беклінків. Судячи з різних сервісів аналізу беків, на мій блог проставлені посилання з трьох тисяч доменів та їх загальна кількість більша за доступні в Гуглі тридцяти тисяч.

Але не суть. Давайте уявімо, що я пробігся цими Урлами і з високою ймовірністю виявив ті сторінки або навіть цілі домени, яким не місце в моєму посилальному профілі. Тепер залишається тільки оформити все це багатство в один файл з розширенням txt і будь-якою зручною вам назвою.

При складанні файлу для Disavow links потрібно буде дотримуватися простих правил:

  1. Урл кожної нової сторінки або домен пишуться на окремому рядку: http://plohoysite.ru/plohaystranichka.html
  2. Домен оформляється за таким принципом: domain:plohoysite.com
  3. Можна додавати коментарі, але перед ними обов'язково повинні стояти ґрати (# — хеш)

Як тільки список підготуйте, переходьте на сторінку Disavow links(Прямого шляху з інтерфейсу Google вебмайстра я не знайшов, мабуть бояться, що будуть використовувати цей інструмент не обдумано):

Вибираєте зі списку потрібний вам сайт і тиснете на кнопку «Відхилення посилань». Вас попередять про можливі негативні наслідки цього дійства, хоча я начебто ще не зустрічав подібних відгуків на форумах, але можливо, що ті, хто додавав сюди свої списки, вже не мали трафіку з Гугла, а піти в мінус, як відомо, не можливо .

До речі, особисто мене цей напис насторожує, бо не хотілося б необдуманими дії посилити, а не покращити ситуацію, що склалася. Ну, а якщо ви все ж таки зважитеся на експеримент, то на наступній сторінці вам запропонують завантажити з комп'ютера підготовлений файл з Disavow links і відправити його Гуглу на розгляд.

Але проставити в стовпчик відібрані URL-адреси або домени - це найпростіше. А ось найскладніше якраз і полягає у відсіюванні цих спамних і поганих зворотних посилань, щоб потім попросити Google їх не враховувати.

Положення посилюється ще й тим, що немає однозначної думки про користь цього дійства, навіть якщо ви точно знаєте, що ваш сайт постраждав від Пінгвіна або на нього було накладено ручні санкції. Думки спеціалістів розділилися. Наприклад, Девака заради справи навіть додав у Disavow links все до єдиного беки на свій блог, але результату не побачив, хоча саме він схиляється до корисності цього інструменту, як не дивно.

До речі, при накладенні ручних санкцій ситуація з виходом з-під фільтра може бути навіть більш простою, а точніше швидше. Фільтри накладені вручну зараз можна побачити в Google Вебмайстрі на вкладці «Пошуковий трафік» «Заходи прийняті вручну».

У цьому випадку вже через пару тижнів після завантаження списку в Disavow links і подачі заявки на перегляд (як я розумію, зараз це можна зробити на цій же вкладці, а не на окремій сторінці, як це було раніше) фільтр може бути знятий і позиції повернуться до своїх початкових значень.

Як відбирати погані зворотні посилання для додавання до Disavow links

У випадку ж Пінгвінаі вдалого видалення спамних посилань на результат доведеться чекати досить довго - до наступного апдейта цього алгоритму. Можливо, що це займатиме місяці, а можливо, що й рік. Ви, як і раніше, хочете спробувати Disavow links? Що ж, тоді я поділюся з вами тими моментами, які я почерпнув при пошуку способу створення цього списку.

Робити це вручну у мене не вийшло не через величезну кількість монотонної роботи, а через те, що я не маю належної інтуїції, щоб на вигляд і тим невеликим статистичним даним, які збирають робити висновки про додавання даної сторінки або всього домену до списку неблагонадійних.

Тут однозначно потрібна автоматизація, яка повинна чітко відокремити зерна від полови і в жодному разі не «виплеснути разом з водою і дитину». Очевидно, що потрібні якісь сервіси, які крім того, що зможуть зібрати всю масу посилань на ваш сайт, здатні були б ще й винести оцінку якості для кожного з донорів.

Такі послуги є і багато вебмайстрів, а тим більше оптимізатори, їх знають. Інша річ, що за аналіз великої кількості беків у цих сервісах доведеться заплатити і дуже немалу кількість грошей. Причому якщо ви професійно використовуєте подібні ресурси щодня, то гроші окупляться сторицею, але для нашого завдання це буде марнотратством, як мені здається.

На серці проскакувала публікація, де представник однієї із великих SEO контор ділився своїм досвідом підбору кандидатів для списку Disavow links. Він запропонував використати три посилальні сервіси: буржуйський від Moz під назвою Open Site Explorer, а також вітчизняні Solomono (Лінкпад) і Ahrefs.

Як я зрозумів, мені потрібно місяць не їсти і не пити, щоб оплатити перевірку моїх кількох десятків тисяч беклінків і вивантажити всі дані щодо них для подальшого аналізу та обробки. Звичайно ж, велика Сео контора всіма цими платними пакетами і так має, бо вони повністю окупаються при постійній роботі з десятками, або навіть сотнями проектів замовників.

Але метод його досить переконливий. Товариш пропонує вивантажити з Open Site Explorer, Solomono та Ahrefs показники якості донорів. Вони називаються Domain Authority, iGood та Ahrefs Domain Rank, відповідно.

Потім звести цю справу в одну таблицю і відбирати кандидатів у Disavow links за принципом найменших вагових коефіцієнтів якості донора у всіх цих трьох сервісах у купе. Це дозволить знизити можливість помилки.

На жаль, дозволити собі таку розкіш можуть не багато, хоча, якби хтось виніс це на аутосорсинг, то я б не відмовився скористатися за помірну плату, але при цьому мені хотілося б отримати не просто список кандидатів для Disavow links, а саме всі ці вивантаження з Open Site Explorer, Solomono і Ahrefs, щоб самому переконатися в справедливості зроблених висновків і в тому що мене не водять за ніс.

Другий варіант пошуку спамних зворотних посилань у своєму посилальному профілі, який мені попався на очі, полягав у використанні платної програмиФастТраст від Алаїча (відомий блогер). Власне, на промо-сайті цієї програми я натрапив саме на опис підготовки списку кандидатів на видалення для Disavow links .

Начебто все чудово. Ціна 3000 рублів, що хоч і дорого, але терпимо, тим більше, що її можна придбати і за бонуси Профіт Партнера, яких у мене є потрібна кількість.

Але! Я придивився уважніше до вимог та бажаних умов, за яких дана програма працюватиме коректно. Виявилося, що не все так просто:

Загалом, це охолодило мій запал і я зрозумів, що купити програму це ще половина справи, а потрібно буде ще проксі шукати, гроші в Ahrefs вкладати, щоб отримати найбільш актуальний результат. Та й часу на збір даних, гадаю, піде чимало.

Тому вирішив взяти паузу і, поки з голови не вилетіло, записати всі свої поточні думки з приводу Пінгвіна та Disavow links у цьому пості, щоб потім повернутися до цього.

Ну, ось десь так, приблизно. А ви що думаєтещодо фільтра застосованого Гуглом до ktonanovenkogo? Це Панда чи Пінгвін? З Disavow links лінк варто морочитися? Якщо стоїть, то яким чином вичленяти галимі беки?

Удачі вам! До швидких зустрічей на сторінках блогу сайт

Вам може бути цікаво

Виведення сайту з-під фільтра Google Пінгвін - покрокове керівництво За що можна отримати бан в Яндексі, потрапити під АГС або портянковий фільтр, а також шляхи виходу з-під цих санкцій
GoGetLinks - вічні посилання на просування сайту та заробіток на біржі ГоГетЛінкс для вебмайстрів
Статистика пошукових запитів Яндекса, Google та Рамблера, як і навіщо працювати з Вордстатом
Розшифровка та роз'яснення Seo скорочень, термінів та жаргонізмів
СЕО термінологія, скорочення та жаргон
Онлайн сервіси для вебмайстрів - все, що потрібно для написання статей, їх пошукової оптимізації та аналізу її успішності
Способи оптимізації контенту та облік тематики сайту при посиланні для зведення витрат до мінімуму
Rel Nofollow та Noindex - як закрити від індексації Яндексом та Гуглом зовнішні посилання на сайті

Відомо, що алгоритм Google Panda є сукупністю оновлень систем пошуку, націлених на збільшення релевантності сторінок у видачі. І тому береться до уваги близько ста різних чинників. В результаті аналізу сайти з низькою якістю контенту та вираженою переоптимізацією знижуються у видачі.

Особливу увагу алгоритм «Панда» приділяє внутрішнім факторам, насамперед текстовому контенту. Розглядається його обсяг, унікальність, ступінь заспамленості ключами та інше. Тим самим Panda доповнює інший алгоритм Google – Penguin, який відповідає за зовнішні фактори ранжування сайту.

Також до уваги беруться відсоток відмов, логічність структури сайту та правильність перелінкування.

Близького знайомства з «Пандою», звичайно, краще цуратися. Але якщо сайт все ж таки потрапив під фільтр, важливо своєчасно дізнатися про це. Достовірно визначити цей факт неможливо, оскільки інформація про дату виходу оновлень Google "Панди" відсутня. Але непрямим свідченням потрапляння під фільтр буде зниження кількості відвідувачів із ПС Гугл. Варто відзначити, що фільтр накладається на весь сайт, тому виконуючи роботи з висновку, необхідно приділяти увагу ресурсу в цілому.

Як визначити, що сайт під фільтром Google "Панда"?

Скористайтеся сервісом перевірки унікальності текстів – наприклад, WebSite Auditor, Advego Plagiatus або будь-яким іншим Вам доступним, але коректним. Потрібно визначити унікальність усіх документів на веб-сайті. Якщо більшість контенту (від 20% і більше) скопійована з інших джерел, рекомендуємо вжити заходів щодо унікалізації проблемних ділянок.

  1. Дивимося змістовність контенту. Користувачі повинні знаходити на сторінці потрібну відповідь на своє запитання. Перевірку на фільтр Google за цим параметром також повинні пройти всі сторінки.
    • Необхідно наповнювати сторінки сайту максимально інформативним та розгорнутим контентом: текстовим, графічним, медійним. «Панда» оцінює як текстову релевантність, а й загальне наповнення сторінки.
    • Слід видалити контент, що повторюється, який не терпить алгоритм Google Panda.
  2. Потрібно перевірити тексти надлишок ключових слів. "Панда" накладається за переспамленість.
  3. Під час підготовки нового якісного контенту для сайту беріть до уваги, наскільки залучені користувачі на основі статистики систем аналітики Гугла.
  4. Необхідно вистоювати правильну структуру сайту з логічним перелінкуванням внутрішніх сторінок.

Як стати цікавим алгоритму Google Panda?

Насамперед необхідно зробити повний аудит сайту та визначити, що могло викликати накладання фільтра. Далі можна приступати до усунення недоліків.

  1. Приділіть особливу увагу контенту. Обсяг тексту має перевищувати 400 символів. Щоб уникнути попадання під дію фільтра Гугла «Панда», не менш важливо відредагувати текст: він повинен бути змістовним, зручним для читання і унікальним. Дублі сторінок необхідно видалити. Слід також підчистити від зайвих ключів сам текст, а також заголовки та метатеги. Важливо, щоб сайт був наповнений належним чином інформацією, корисною для відвідувачів (наприклад, новинами, статтями, розділами «Питання – відповідь» тощо).
  2. Збудуйте правильну структуру сайту. Це ключова вимога для правильної перелінкування сторінок. Також важливо виправити усі технічні помилки сайту.
  3. Позбавтеся нерелевантної реклами. Якщо на сторінці є агресивні спливаючі вікна, поп- та клікандери, нехай навіть і по темі, не сумнівайтеся, що інтерес з боку Google "Панди" - лише питання часу. Вирішіть самі, чи коштує потенційна вигода від такої реклами ризиків, що породжуються нею.
  4. Визначте працездатність посилань (як зовнішніх, і внутрішніх). Для цього чудово підійде плагін Broken Link Chekerабо сервіс Netpeak Spider. Не завадить додати додаткову навігацію.

Головне при цьому – пам'ятати, що мета алгоритму «Панда» полягає у блокуванні поганого контенту. Google Panda любить велику кількість унікального контенту. Чим його більше, тим більша ймовірність, що фільтр знімуть. Потрібно періодично індексувати сторінки.

Це основні рекомендації, які дозволять уникнути санкцій із боку Гугла. Їх можна використовувати як базові ще на етапі створення сайту, його наповнення та просування. Чим змістовнішим буде веб-ресурс, тим менше йому загрожує цей алгоритм. Відповідно позиції у видачі будуть гранично стійкими.

Якщо сайт потрапив під фільтр, то до наступного апдейту він не зможе звільнитися від впливу Google Panda. Саме тому краще запобігти проблемам, ніж потім їх вирішувати.

Корисно 1

Привіт читачі. Сьогодні публікую чергову цікаву статтю на наболілу тему – . Напевно, багато хто пам'ятає, що 24 лютого цього року могутній гугл впровадив новий алгоритм, мета якого – ранжувати сайти за новою схемою.

Звичайно, не сказати, що новий алгоритм знищив усі сайти з видачі, але 12% усіх пошукових результатів були переглянуті, причому не в кращу для власників сайтів сторону. Результат застосування Google Panda неможливо було не помітити. На багатьох сайтах трафік із гугла впав у два рази. У багатьох ще більше.

Можливо, ви і не відчули на собі дію цього алгоритму, але не варто радіти передчасно. Ніколи не пізно потрапити під лапи Google Panda. У цій статті я розповім про сам алгоритм, а також про те, як його можна оминути.

Дайте відповідь на запитання: ось ви готові до того, що одного прекрасного дня SE трафіку на вашому сайті стане рівно вдвічі менше? Якщо ні, можу запевнити, що від такого сюрпризу не застрахований ніхто. Але для початку давайте поговоримо про те, як виявити факт влучення вашого сайту під удар Google Panda

Як виявити чи потрапив сайт під фільтрGooglePanda?

Взагалі, можна використовувати різні системи статистики, але краще використовувати Google Analytics, т.к. саме ця система статистики розроблена безпосередньо в кулуарах ПС Google, і ніхто, крім неї, не відображає настільки точно статистику гугла.

Напевно, багато хто, хто має англомовні сайти, які представлені в американській видачі, змогли відчути на своїх сайтах удар Панди. Нижче я покажу, наскільки катастрофічна шкода Google Panda. Але, крім цього, ми подивимося, як виявити факт застосування фільтра до вашого сайту та шукати шляхи вирішення проблеми.

Звичайно, Google Panda насамперед вдарила по американській видачі. У руглі все значно простіше, немає таких жорстких обмежень, але все одно, рекомендую ознайомитися з цією статтею, щоб бути готовим до зустрічі з новим алгоритмом.

Ну, а тепер до діла. Найперше, що нам потрібно буде зробити – це зайти до свого облікового запису Google Analytics. Не у всіх хлопців, що працюють у рунеті, є сайти, орієнтовані на видачу США, тому якщо зайдете в аккаунт GA, і побачите те, що на скріншоті нижче, то можна подумати, що все нормально, і Google Panda оминув вас:

Але це тільки перше враження. Насправді все значно складніше і копати тут потрібно глибше. В обліковому записі Google Analytics переходимо на вкладку "Джерела трафіку" (Traffic Sources), після цього переходимо - "Пошукові машини" (Search Engines). Потім вибираємо non-paid (не оплачувані):

Тут видно розклад з пошукових систем. Стрілочкою відзначено пошукову систему Google. Натискаємо сюди. Це потрібно для того, щоб бачити статистику з трафіку виключно за цією пошуковою системою.

Далі тиснемо на вкладку "Ключові слова" (Keywords). На скріншоті ви можете побачити її у зеленій рамочці. З'являється таке велике меню, як видно знизу на скрині. З цього меню вибираємо "Country/Territory". Цей елемент виділено у червону рамку. Робимо це для того, щоб поставити фільтрацію даних по певній країні. Натискаємо на цей елемент:

Тут на скріншоті добре видно, що, починаючи з 24 лютого, траф з гуглопошуку значно просів. Більш як на 50%. Скажіть, причина для розладу?

Дивимось на ліве меню. Тут вибираємо Advanced Segments, а після цього створюємо новий сегмент. У цьому сегменті вказуємо наступні налаштування:

Цей сегмент можна назвати, як вам більше подобається. Тут, наприклад, він називається "G US organic". Тепер зберігаємо цей сегмент. Далі всі наші дані будуть стосуватися тільки відвідувачів, які приходять на наш сайт з органічного пошуку США, пошукової системи Google.

Загалом, це все поки що лише на словах. Насправді ж, спробуємо зрозуміти, для чого взагалі потрібен Google Panda. Головне призначення Google Panda – почистити видачу від УГ-сайтів.

Метт Катс (Matt Cutts) заявив, що Google Panda вдарить по:

    Сайтам, що мають багато марного контенту

    Сайтам, що наповнюються копіпастом

Все це потрібно для того, щоб «дати дорогу» в топ якісним сайтам, що мають оригінальне та цікаве наповнення, сайтам, які не забиті «під зав'язку» рекламою.

Звісно, ​​насамперед від фільтра Google Panda постраждають ГС. Але фільтр недосконалий, тому творці фільтра чудово розуміють, що від нього можуть постраждати і нормальні сайти, тому при виникненні проблем можна сміливо зв'язуватися через фідбек.

До речі, у цьому прикладі розглянуто нормальний сайт – СДЛ, а не якийсь УГ. Фундамент цього сайту – якісні статті, написані різними фахівцями. Крім того, до сайту прикручений сервіс на кшталт Q and A (питання-відповідь), де всі учасники можуть знайти відповіді на запитання, що їх цікавлять. Так, сервіси Q&A, за ідеєю, можуть бути мішенню для Google Panda, тому що сторінки таких сервісів часто містять мало контенту. Але є факти, коли Google Panda косила і звичайні контентні веб-сайти, де немає ні форумів, ні інших сервісів на зразок Q&A.

Коли вас може "накрити"GooglePanda?

Звичайно, жоден з розробників Google Panda (Мет Катс і Аміт Сінгал) таємницю не розкрили, але все-таки з їхнього інтерв'ю журналу Wired можна зробити певні висновки щодо нюансів роботи даного фільтра

Нижче наведено список потенційних факторів, за сукупністю яких можна потрапити під ударGooglePanda:

    Велика кількість копіпасту. За спостереженнями, найстрашніше те, що за копіпаст може песимізувати весь сайт, а не окремі його сторінки

    Значне превалювання на сайті неунікального контенту над унікальним

    Нерелевантність сторінки пошуковим запитам, за якими вона просувається, або перебуває у видачі

    Переоптимізація сторінки

    Високий показник відмов

    Мало часу, який користувачі проводять на сайті

    Незначний відсоток повернень

    Багато неякісних посилань на сторінках. Неякісних, у сенсі – нетематичних та посилань, що ведуть на відверті ГС

Гаразд, якщо ваш сайт підходить лише під один із цих пунктів, це ще нічого. Але якщо він підходить під багато хто, то це може бути причиною удару Google Panda. До речі, необхідно навчитися розрізняти штрафні санкції від бана загалом. І ваш сайт перебуватиме в ауті доти, доки ви не піднімете його якість на новий рівень. Google Panda – це дуже серйозний алгоритм, і якщо на вашому сайті є кілька сторінок із відвертим Г, то це може бути причиною «потоплення» всього сайту, хоча решта сторінок сайту може бути з якісним контентом.

Є можливість подивитися, як було накладено фільтр: на рівні сайту або на рівні сторінок

Якщо фільтр був накладений в рамках всього сайту, то, напевно, ви це побачите і неозброєним оком, тому що це позначиться на всіх сторінках сайту. Якщо використати наш приклад, то можна використати звіти «G US organic», і побачити що…

Ідемо до Content > Top Landing Pages. Без коментарів, все й так видно:

Це статистика для лендінгів. Тобто для окремих сторінок. Тут їх 4272. Для того, щоб дізнатися, чи всі сторінки постраждали від Google Panda, нам потрібно трохи похимічить зі звітами в Google Analytics:

    Потрібно зробити звіт по найважливішим для нас сторінкам

    Потрібно зробити звіт щодо груп сторінок. Можна зробити сортування за урлами. Наприклад, відібрати лише сторінки, які містять слово forum

Робиться це просто:

Вище я говорив, що Google Panda накладає фільтр на весь сайт. Така думка принаймні витає по форумах. Але насправді, коли я зробив аналіз декількох сайтів згідно з описаними вище мною фільтрами, то прийшов до думки, що Google Panda фільтрує все-таки не весь сайт, а тільки на рівні сторінок, а значить не все так страшно, як спочатку здавалося. .

Аналізуйте, який тип сторінок фільтруєGooglePanda

У тому випадку, якщо ви вже отримали ляпас від Google Panda, то аналізуйте ваш сайт згідно з фільтрами, які я наводив вище. Це дозволить дізнатись, який тип сторінок зафільтрований. Я знаходив цікаві факти. Наприклад, те, що під фільтр потрапляли «важкі» сторінки, з великою кількістю контенту, унікального, між іншим. І бачив багато сторінок, на яких контенту було кілька тисяч символів, і все одно такі сторінки потрапляли під фільтр. Причина? Просто на цих сторінках було дуже багато реклами. А на деяких сайтах навпаки, трафік із гугла підріс. І на них теж була реклама, але її було значно менше. Очевидно, це не повний перелік всіх дій для виявлення/захисту від Google Panda. На деяких сайтах, які потрапили під Google Panda, зняли абсолютно всю рекламу. Щоправда, поки що сильних змін помічено не було. Пройшло ще замало часу, щоб робити якісь висновки