Okna.  Wirusy.  Laptopy.  Internet.  Biuro.  Narzędzia.  Kierowcy

Google Panda to program filtrujący firmy Google. Jego zadaniem jest monitorowanie i blokowanie stron zawierających treści niskiej jakości.

Więcej filmów na naszym kanale - ucz się marketingu internetowego z SEMANTICA

Wyszukiwarka Google za swoją główną funkcję uważa dostarczanie użytkownikom odpowiednich, interesujących i przydatne informacje. Dlatego stanowczo sprzeciwia się czarnym metodom promocji, gdy witryna trafia na szczyty wyników wyszukiwania nie poprzez tworzenie wysokiej jakości treści, na które jest zapotrzebowanie, ale poprzez manipulację wyszukiwarkami.

Historia Pandy

Algorytm Google Panda działa automatycznie. Pierwszym krokiem do jego powstania była ocena duża ilość witryn pod kątem zgodności z wymaganiami, jakie Google nakłada na treść. Zostało ono przeprowadzone ręcznie przez grupę testerów i pozwoliło sformalizować główne czynniki wpływające na jakość treści serwisu.

Google Panda została po raz pierwszy wypuszczona w lutym 2011 r., ale w pełni zaczęła działać w kwietniu. Tylko w 2011 roku algorytm był aktualizowany 57 razy, a w 2012 roku kolejne 5 razy. Kolejny rok 2013 przyniósł najnowsza aktualizacja Pandy z własnym numerem – Panda 25, która przeszła drobne zmiany w czerwcu i lipcu tego samego roku. Najnowsza wersja Algorytm Panda 4.0, wydany w maju 2014 roku, zachwiał pozycją agregatorów wiadomości i dotknął gigantów takich jak Ebay.

Obecnie algorytm jest udoskonalany niemal w sposób ciągły, aktualizowany co miesiąc przez 10 dni. Firma nie publikuje dat aktualizacji, aby jak najbardziej utrudnić manipulowanie pozycjami witryn wyniki wyszukiwania.

Wymagania Google Panda dla stron internetowych

Google Panda ma za zadanie przede wszystkim zwalczać treści niskiej jakości, dlatego jej główne wymagania wobec witryn opierają się na jakości publikowanych informacji.

  1. Strona powinna zawierać głównie unikalne treści i nie powinna zawierać powielanych tekstów ani obrazów.
  2. Niedopuszczalne jest wykorzystywanie tekstów generowanych automatycznie.
  3. To samo powinny widzieć roboty wyszukiwarek i użytkownicy; nie można używać stron, które są widoczne tylko dla wyszukiwarek i są potrzebne wyłącznie do promocji witryny.
  4. Słowa kluczowe każdej strony serwisu muszą odpowiadać jej treści; spamowanie słowami kluczowymi jest niedopuszczalne.
  5. Linki i reklamy na stronach muszą odpowiadać tematyce tekstów i pozostałej zawartości strony.
  6. Nie używaj drzwi, ukrytych linków ani ukrytego tekstu, które mają na celu oszukać wyszukiwarka.

Algorytm Google Panda ukarze Cię, jeśli na stronach witryny znajdziesz treści skopiowane z innych zasobów bez linku do źródła, artykuły szablonowe o identycznej strukturze lub zduplikowane strony. Witryny, na których teksty stanowią kompletną kartkę, bez ilustracji, filmów i infografik, z tymi samymi metatagami na różnych stronach, mogą zostać objęte filtrem Google Panda.

Uważa się, że ten algorytm nie zwraca uwagi na linki, ale wymaga, aby linki w artykułach były istotne dla ich tematu. Oznacza to, że teksty dotyczące okien plastikowych nie powinny zawierać wzmianek o sprzedaży herbaty itp.

Oprócz wszystkiego, co opisano, Google Panda przywiązuje dużą wagę do czynników behawioralnych. Jeśli Twoja witryna ma wysoki współczynnik odrzuceń, użytkownicy wychodzą już po pierwszej stronie i nigdy nie wracają, z pewnością zwrócisz na siebie uwagę algorytmu.

Jak uniknąć sankcji Google Panda

Jak rozpoznać działanie Pandy

Zanim podejmiesz kroki, aby uciec przed filtrami Google Panda, upewnij się, że cierpiałeś z jego szponów. Jak ustalić, czy przyczyną Twojego problemu jest Google Panda, czy przyczyną jest coś innego?

Zwróć uwagę na związek pomiędzy aktualizacją algorytmu a spadkiem ruchu na stronie. Aktualizacja Google Panda odbywa się co miesiąc, trwa 10 dni, czas jej wdrożenia możesz sprawdzić na stronie Moz.com. Jeśli nastąpił zbieg okoliczności, należy podjąć działania.

Drugim sposobem na złapanie Pandy jest użycie specjalna usługa Barakuda. Jedna z usług tej witryny, Panguin Tool, mając dostęp do informacji o Twoim koncie Google Analytics, nakłada na pobrany z niego wykres daty aktualizacji algorytmu i udziela odpowiedzi. Ta metoda ma dwie wady - nie jest odpowiednia dla osób, które niedawno zainstalowały licznik Google Analytics i wymaga dostępu do konta, co z kolei umożliwia dostęp do pieniędzy na koncie Google Analytics.

Trzecia metoda jest dość prosta, ale wymaga czasu i cierpliwości. Będziesz musiał sprawdzić każdą stronę witryny. Musisz to zrobić w ten sposób:

  1. Skopiuj kilka zdań z tekstu na stronie do paska wyszukiwania Google. Wystarczy zająć 100-200 znaków.
  2. Sprawdź, czy Twoja witryna pojawia się na górze wyników wyszukiwania.
  3. Zakończ ten sam fragment za pomocą pasek wyszukiwania w cudzysłowie i sprawdź ponownie, czy witryna znajduje się w wynikach wyszukiwania, czy nie.

Jeśli witryna pojawia się w wynikach wyszukiwania tylko w drugim przypadku, to przyczyną Twoich kłopotów jest Google Panda. Pamiętaj, że będziesz musiał sprawdzić każdą stronę.

Jak wydostać się spod filtra

Aby uciec przed filtrem Panda, musisz wykonać następujące czynności:

  1. Dokonaj całkowitej rewizji treści witryny i zastąp większość tekstów ciekawymi i przydatnymi, a resztę przerób tak, aby stały się unikalne i istotne.
  2. Usuń nadmiar słów kluczowych z nagłówków wszystkich poziomów i metatagów. Zmień nagłówki na trafne i atrakcyjne, tak aby przykuły odbiorcę i sprawiły, że będzie chciał przeczytać tekst.
  3. Oczyść witrynę z nieistotnych i agresywnych reklam, co znacznie poprawi czynniki behawioralne.
  4. Usuń wszystkie duplikaty i uszkodzone linki, odznacz słowa kluczowe.
  5. Sprawdź linki na stronach pod kątem zgodności z treścią stron i wymień lub usuń nieistotne.

Te kroki pomogą Ci z czasem wyjść z filtrów Pandy. Pamiętaj jednak: Google Panda to algorytm automatyczny i żadna ilość połączeń nie pomoże Ci szybko uwolnić się od jego sankcji. Wypełnij witrynę ciekawą, unikalną treścią, nie daj się zwieść umieszczaniu na niej reklam, a nie będziesz miał kłopotów z inteligentną bestią Panda Google.

Dawno temu, w odległej galaktyce, wyszukiwarka Google stworzyła algorytm o nazwie Panda. Algorytm ten został opracowany tylko przez dwie osoby: Amita Singala i Matta Katsa. Algorytm ten różni się od swoich odpowiedników tym, że przede wszystkim jest zaprojektowany z myślą o czynniku ludzkim. Algorytm bierze również pod uwagę inne czynniki podczas rankingu witryny.

W tym materiale staraliśmy się zebrać wszystko co może mieć związek z algorytmem Google Panda, jak go rozpoznać i jak nie wpaść w jego pułapkę, aby odnieść sukces promować witrynę.

Co bierze pod uwagę algorytm Google Panda?

Czy treść na stronie jest wyjątkowa?

Algorytm Panda przede wszystkim zwraca uwagę na to, czy te same treści znajdują się na innych stronach. Co więcej, wyszukuje nie tylko podobne teksty na stronach czy stronach, ale także fragmenty tekstów. Inaczej mówiąc, niepowtarzalność tekstu określa się procentowo. Załóżmy, że jeśli artykuł został skopiowany w całości, to unikalność wynosi zero. Jeżeli część tekstu zostanie skopiowana, wówczas niepowtarzalność może wynosić np. 80%.

Algorytm oblicza niepowtarzalność zarówno samej witryny, jak i pojedynczej strony, w tym w odniesieniu do innych stron witryny. Oprócz tego algorytm Panda uzbrojony jest w takie narzędzie jak szablony. Innymi słowy, może identyfikować podobne strony w różnych witrynach, nawet jeśli są promowane przy użyciu różnych słów kluczowych.

Co więcej, to algorytm zwraca także uwagę na reklamę. Jeśli na stronie, która zapewnia usługi prawne, umieszczana jest reklama konkurencji, algorytm to rejestruje i uwzględnia przy rankingu witryny.

Zadaniem wyszukiwarek jest dostarczenie użytkownikowi odpowiedzi na jego pytanie. Zadaniem algorytmu Panda jest sprowadzenie na ziemię właścicieli witryn, których celem jest wyłącznie zarabianie pieniędzy. Ogólnie cel tego algorytmu jest strasznie prosty. Wyniki wyszukiwania powinny zawierać wyłącznie unikalne, trafne i przydatne witryny. Oto przykład, jak tworzyć dobre treści edukacyjne.

Liczba i jakość linków (profil linków)

Algorytm uwzględnia także linki. Co więcej, uwzględnia wszystkie linki, zarówno przychodzące, jak i wychodzące. Jest tylko jeden wymóg, obie witryny muszą dotyczyć tego samego tematu. Algorytm oczywiście śledzi liczbę linków przychodzących i wychodzących, ale nie jest to najważniejszy czynnik rankingowy witryny. Pierwszą rzeczą, która go interesuje, jest czynnik ludzki. Innymi słowy, ściśle monitoruje użytkownika na stronie. Czym się zajmuje, ile czasu spędza, czy czyta materiały, wypełnia formularze i tak dalej. Oczywiście programiści wykonali świetną robotę, tworząc i testując ten algorytm. Zasadniczo algorytm ten wymagał dopracowania innych algorytmów, aby wyszukiwarka mogła zwracać wyłącznie witryny o wysokiej jakości.

Wprowadzając ten algorytm do rankingu witryny, dostać się na GÓRĘ wyników wyszukiwania Tylko naprawdę przydatne i wysokiej jakości witryny mogą to zrobić. To właśnie ten algorytm stworzył wyszukiwarkę systemu Google'a potężne narzędzie wyszukiwania. Potwierdza to fakt, że grono odbiorców Google rośnie wykładniczo. Co więcej, budżet firmy również rośnie skokowo. Przecież nadal można oszukać użytkownika za pomocą tzw. czarnych metod promocji. Różne funkcje i agresywna reklama. Ale inwestora nie da się oszukać, on wie i doskonale zdaje sobie sprawę, że Google to dochodowy biznes.

Oczywiście taki rozwój firmy nie jest efektem działania tylko jednego algorytmu. Wróćmy teraz do tematu artykułu.

Czynniki behawioralne

Wskaźnik ten obejmuje szereg kryteriów, takich jak:

  • współczynnik odrzuceń;
  • ile czasu dana osoba spędza na stronie w ciągu jednej sesji;
  • ile stron odwiedził podczas jednej wizyty;
  • czy wraca na stronę i jak często;
  • jak długo strona wyświetla się w wynikach wyszukiwania i ile osób kliknęło link (CTR).

Algorytm śledzi to wszystko i robi to dla każdego użytkownika. Oznacza to, że monitoruje każdego odwiedzającego i uważnie przygląda się temu, co robi, czy klika linki, wypełnia formularze, przewija stronę w dół, czy nie i tak dalej. Algorytm określa w ten sposób, czy użytkownik witryny odpowiada na żądania, czy też osobna strona oraz czy użytkownik znajdzie odpowiedź na wprowadzone zapytanie w pasku wyszukiwania.

Jak zrozumieć, że witryna wpadła w filtr Panda i co zrobić?

  1. Gwałtowny spadek ruchu. Jeśli zauważysz, że liczba kliknięć z Google gwałtownie spadła, oznacza to, że jedno z możliwe przyczyny, może być Panda i problemy techniczne miejsca, które nie zostały zidentyfikowane:
    — powolna reakcja serwera;
    — niedostępność stron i innych.
    Aby to sprawdzić, dokładnie to przeanalizuj Google Analytics I Konsola wyszukiwania.
  2. Bądź ostrożny z linkami. Choć linki dla Google pozostają kluczowymi czynnikami rankingowymi, nie należy skupiać na nich zbytniej uwagi, gdyż wyszukiwarka już dawno nauczyła się odróżniać linki naturalne od zakupionych, a także identyfikować nienaturalny przyrost masy linków.
  3. Złe teksty. Teksty napisane w języku innym niż ludzki, z wieloma błędami ortograficznymi, krótkie, nieunikalne i umieszczone w formie strony gazety zabiją każdą witrynę, ponieważ są sygnałem dla Pandy do obniżenia witryny w wynikach wyszukiwania.
    Co robić? Pisz wysokiej jakości, unikalne treści, przydatne dla użytkowników, dokładnie je sprawdzaj i edytuj.
  4. Brak wideo i zdjęć. Jeśli nie rozrzedza się treści artykułów i stron internetowych zdjęciami, infografikami i filmami, to oko czytelnika po prostu nie ma się do czego przyczepić, a jeśli jest to niekorzystne dla użytkownika, to Pandzie się to nie podoba.
    Dodaj bardziej zoptymalizowane zdjęcia i filmy, wypełniając atrybuty alt i tytuł.
  5. Niewiele linków wewnętrznych. Użytkownik po wejściu na stronę powinien łatwo i swobodnie się po niej poruszać, trafiając dokładnie na te strony, które spodziewał się zobaczyć. I tutaj bardzo ważne jest wykonanie kompetentnego linkowania wewnętrznego, które pozwoli Ci przejść do takich stron. Świetnym rozwiązaniem byłoby także umieszczenie widżetów z najnowszymi wpisami na blogu, najpopularniejszymi artykułami i najciekawszymi sekcjami.

I pamiętaj: „Lepiej nie rozgniewać Pandy!”

Panda Google to algorytm opracowany i wprowadzony na rynek w 2011 roku przez Google'a, który służy do jakościowej analizy stron w wynikach wyszukiwania.

Jest w stanie znaleźć i wykluczyć z rankingu (lub obniżyć pozycje dokumentów) te strony, które zawierają dużą ilość nieunikalnej treści, nie zawierają żadnych przydatnych informacji i służą wyłącznie do zarabiania pieniędzy.

Przede wszystkim Google Panda bierze pod uwagę stopień zorientowania danego zasobu na użytkownika, jednak aby określić jakość witryny, algorytm ten wykorzystuje nie tylko to kryterium, ale także szereg innych, równie ważnych kryteriów, którymi należy się kierować brane pod uwagę podczas promocji w wyszukiwarkach.

Kryteria oceny witryn uwzględniane przez algorytm Google Panda

  • . Algorytm Panda uwzględnia czas, jaki użytkownicy spędzają na stronie, procent powrotów do serwisu, procent niepowodzeń, liczbę powrotów w stosunku do całkowitej liczby przejść, liczbę przejść w obrębie serwisu oraz niektóre inne czynniki. Aby zapewnić witrynie dobre pozycje w wynikach wyszukiwania, webmaster musi stworzyć atrakcyjny dla użytkowników zasób, wypełnić go unikalnymi artykułami, wysokiej jakości linki wewnętrzne, zaimplementuj przejrzystą nawigację, zapewnij szybkie wyszukiwanie niezbędne informacje i zastanów się, co jeszcze sprawi, że użytkownik pozostanie na stronie jak najdłużej.
  • . Choćby jednoczesne użycie Stosując różne metody promocji serwisu, należy zwrócić szczególną uwagę na jakość treści zamieszczanych na stronach serwisu. Algorytm Panda analizuje unikatowość informacji prezentowanych w serwisie na podstawie odsetka treści zapożyczonych z innych zasobów w stosunku do całkowitej ilości treści w serwisie oraz na każdej stronie z osobna. Musisz zrozumieć, że informacje niskiej jakości umieszczone tylko na jednej stronie mogą pogorszyć pozycję w wynikach wyszukiwania nie tylko tej strony, ale całego zasobu. Podobny negatywny wpływ na witrynę powoduje nadmierna liczba tekstów tego samego typu o różnej treści kluczowe zapytania(wysoki szablon), a także teksty o dużej gęstości słów i fraz kluczowych (wysokie mdłości).
  • masa linków i reklama. Algorytm Google Panda określa stopień, w jakim tematyka reklam zamieszczanych w zasobie odpowiada tematyce.

Wielu optymalizatorów SEO wie o tym od dawna Algorytmy Google, takie jak Panda, Pingwin i Koliber. Część osób sama na nie cierpiała, innym udało się skutecznie uniknąć ich skutków.

Jednak większość początkujących, którzy chcą promować swoje witryny w wyszukiwarkach, zupełnie nie rozumie, czemu dokładnie mają na celu ataki tych algorytmów.

Jest wielu webmasterów, którzy w ogóle nie biorą ich pod uwagę podczas tworzenia stron internetowych. A jednocześnie, choć destrukcyjne działanie Pandy, Pingwina i Kolibra codziennie kosi wiele miejsc, obejście ich nie jest takie trudne, jeśli wszystko dobrze zrozumiesz i zrobisz wszystko poprawnie.

Tak naprawdę zasady działania tych algorytmów nie są niczym nowym, po prostu ich pojawienie się pozwoliło znacząco usprawnić walkę Google z (jego zdaniem) stronami o niskiej jakości i skuteczniej oczyścić wyniki wyszukiwania.

Zacznijmy więc.

Algorytm wyszukiwania Google - Panda

Pierwszy z tej trójcy (2011), a zarazem najbardziej, w oczach przybyszów, najstraszniejszy. W zasadzie, Algorytm wyszukiwania Pandy przerażające nie dla samych początkujących, ale z powodu ich nieostrożnego podejścia do tworzonych przez siebie witryn.

Oczywiście każdy webmaster jest pełnym właścicielem swojej witryny internetowej; tworzy ją tak, jak chce i żaden Google nie może mu tutaj narzucać. Nie powinniśmy jednak zapominać, że Google jest całkowitym panem swoich wyników wyszukiwania i jakie witryny chce, dopuszcza do swoich wyników, a te, których nie chce, nie pozwala. W tym celu się je wykorzystuje Algorytmy wyszukiwania Google.

Panda była pierwszym narzędziem do protestowania wyszukiwarek internetowych przeciwko błędom i zaniedbaniom nie tylko nowicjuszy, ale także przeciwko beztroskiemu podejściu do wyszukiwarek (i ich własnych projektów) ze strony wszelkiego rodzaju „władz”. Faktem jest, że wiele dużych serwisów, głównie komercyjnych – sklepów, usług, katalogów i tym podobnych – pozwala na tworzenie stron o podobnej treści.

Zasadniczo jest to opis towarów lub usług, które są podobne pod względem podstawowych parametrów, ale różnią się jedynie drobnymi szczegółami, na przykład:

  • rozmiar;
  • kolor;
  • cena itp.

Główna treść jest zatem na takich stronach taka sama, często podobieństwo sięga 90 procent lub więcej. Z biegiem czasu w witrynie gromadzi się bardzo duża liczba klonowanych stron. Oczywiście nie przeszkadza to w żaden sposób odwiedzającym, ale wyniki wyszukiwania są dosłownie zapchane podobnymi dokumentami internetowymi.

Zanim został wprowadzony Algorytm Pandy Google po prostu „skleił” takie duplikaty, czyli tylko jeden z nich został uwzględniony w wynikach, a pozostałe zostały umieszczone w kategorii „wyniki dodatkowe”. Ale, jak mówią, na razie wszystko jest w porządku i pojawiły się nowe algorytmy wyszukiwarki Google. I przyszedł moment, w którym nawet „dodatkowe rezultaty” nie były w stanie poprawić obrazu.

Algorytm Panda ma na celu odnalezienie i identyfikację takich stron internetowych, określenie ich dopuszczalnej liczby oraz podjęcie działań w przypadku projektów, w których liczba takich stron jest zbyt duża.

Gdy tylko algorytm Panda zaczął działać z pełną mocą, wiele autorytatywnych witryn spadło ze swoich „smacznych” pozycji w najwyższych wynikach wyszukiwania, a zatem „bardzo zatonęło” w ruchu.

Oczywiście właściciele tych serwisów, zrozumiewszy przyczyny takiej katastrofy (badając nowe algorytmy Google), starali się jak najszybciej naprawić sytuację, ale nie wszyscy wrócili na swoje „miejsca zarobku”. Ich miejsca zajęli skuteczniejsi zawodnicy, którzy zareagowali w porę Algorytmy wyszukiwania Google lub początkowo w ogóle nie naruszył nowych zasad.

Algorytm Google: Pingwin

Kolejny algorytm – Pingwin (2012) – nakierowany jest na zupełnie inne obszary i nie wpływa bezpośrednio na obiekty, lecz uderza w nie jedynie pośrednio – poprzez masę referencyjną. Do niedawna wielu webmasterów, a nawet dość doświadczonych optymalizatorów SEO, bardzo nieostrożnie podchodziło do linków do swoich witryn, które pozyskali z zasobów internetowych innych osób. A kiedy to ogłoszono nowy algorytm(Penguin) zajmie się rankingiem linków; większość właścicieli „autorytatywnych” witryn nie zwróciła na to uwagi.

Oczywiście na długo przed pojawieniem się Pingwina było wiadomo, że wyszukiwarki mają bardzo negatywny stosunek do zakupionych linków i walczą z łamaczami na wszelkie możliwe sposoby. Najbardziej rozsądni webmasterzy nie kontaktowali się z giełdami linków, a kupowali linki, że tak powiem, prywatnie, wierząc, że skoro nie można ich wiązać z giełdami, to nie spotka ich żadna kara.

Nie wzięli jednak pod uwagę faktu, że wiele witryn darczyńców samo w sobie kupowało linki, a większość z nich została „zapełniona”, gdy Penguin zaczął być aktywny. Naturalnie wszystkie linki prowadzące z tych witryn zniknęły, a „trzecie” witryny po prostu straciły znaczną część swojej masy linków.

A kiedy witryna traci część masy linków, wówczas w naturalny sposób zapada się w wynikach wyszukiwania i traci zauważalną część ruchu.

Część właścicieli, którzy nie rozumieli sytuacji, uważała to za karę za nieistniejące grzechy. Ostatecznie jednak okazało się, że nie pachniało tu karą. Strony, których zaangażowanie w zakup linków zostało udowodnione, zostały ukarane. A te strony, które z kolei były z nimi powiązane, po prostu „znalazły się w niewłaściwym miejscu o niewłaściwym czasie”.

Widzimy zatem, że algorytm Kolibri „pokrył” ogromny segment wyników wyszukiwania Google związany z zakupem linków. Dlatego okazało się to znacznie skuteczniejsze niż ataki ukierunkowane - teraz prawie wszystkie strony internetowe, które czerpią ruch (i wraz z nim dochody) z Google, czyli zależą od tej wyszukiwarki, będą uważnie monitorować masę swoich linków i próbować aby uniknąć otrzymywania linków z witryn, co do których istnieje choćby najmniejsze podejrzenie, że oni z kolei kupują ich linki na giełdach.

Niektórzy oczywiście przeklinają Google, zarzucając mu nieuczciwą grę, ale nie zapominajmy o tym, po pierwsze, Google nigdy nie gra nieuczciwie– ani amerykańska moralność, ani amerykańskie prawo mu na to nie pozwalają, a po drugie, nikt do tej pory nie wymyślił nic skuteczniejszego w walce z epidemią kupowanych linków.

Algorytm Google: Koliber

Trzecim algorytmem, który bardzo mocno uderzył w wiele witryn, jest Hummingbird, który pojawił się w 2013 roku. Do czego ma służyć ten algorytm? Jest on skierowany przede wszystkim przeciwko portalom i witrynom, które podczas promowania swoich stron wykorzystują tzw. spam kluczowy.

Wielu użytkowników Google, szukając niezbędnych informacji, wpisuje w pasek wyszukiwania „uproszczone” lub „niepoprawne” zapytania, na przykład „gdzie kupić majtki”, „wakacje w Tajlandii” czy „restauracja w Nowosybirsku”, a niektórzy nawet robią ich wiele błędy w swoich zapytaniach.

Oczywiście Google „dostosowuje” do takich zapytań najodpowiedniejsze strony serwisu, na których oczywiście zapytania w tak „nieprawidłowej” formie nie znajdują się, ale logicznie na nie odpowiadają pełniej.

To jak, co w tym złego? Ale faktem jest, że Google przechowuje w swojej bazie danych wszystkie zapytania wprowadzone w pasku wyszukiwania, a z tej bazy danych korzystają stale twórcy drzwi i producenci witryn „kanalizacyjnych”. Z reguły za pomocą zautomatyzowanych środków „wyostrzają” strony swoich „dzieł” pod kątem takich „niepoprawnych” zapytań i tym samym natychmiast się zdradzają.

Roboty indeksujące, analizujące zawartość stron serwisu, stale sprawdzają bazę kluczy Google i jeśli na stronach znajduje się zbyt wiele takich „niepoprawnych” fraz, wówczas cała witryna staje się podejrzana.

Niektórzy wręcz przeoczają fakt, że Google w ogóle zwraca uwagę na to, na jaką literę zaczynają się nazwy własne czy geograficzne – dużą czy małą. Cóż, jeśli ktoś pisze tekst i kilka razy błędnie przeliteruje imię lub tytuł, nie jest to wielka sprawa. Ale jeśli nazwy miast lub nazwiska osób w całej witrynie są pisane małymi literami, jest to już sygnał o niezbyt (lub wcale) wysokiej jakości witrynie.

Wynik analizy algorytmów Google

Więc przyjrzeliśmy się Trzy najważniejsze algorytmy Google, które łącznie obejmują bardzo ważne obszary tworzenia i promowania zasobów sieciowych. Wszystkie z nich są zaangażowane w poprawę jakości treści internetowych. Oczywiście jest wielu rzemieślników, którzy z powodzeniem omijają wszystkie te algorytmy i nadal wypełniają wyniki Google witrynami o niskiej jakości, ale nie jest to już taki wolumen, jak przed pojawieniem się Pandy, Pingwina i Kolibra.

Możemy się spodziewać, że z biegiem czasu algorytmy te będą udoskonalane i pojawią się potężniejsze modyfikacje. Dlatego najlepiej od razu skupić się na uczciwej pracy i unikać irytujących błędów, które w ostatecznym rozrachunku mogłyby znacząco zaszkodzić Twojej kreacji internetowej, z pomocą której podbijesz czołowe wyniki Google!

Witam, drodzy czytelnicy bloga. W tym poście chcę trochę opowiedzieć o tym, co teraz chodzi mi po głowie. W zasadzie wszystkie moje myśli są zajęte problemem, z którym udało mi się wpaść na przestrzeni ostatniego półtora roku. Pod podanym linkiem znajdziecie artykuł, w którym opisuję obecną sytuację, łącznie z korespondencją ze wsparciem technicznym lustrzanki RuNet.

W ciągu czterech i pół miesiąca od publikacji tej publikacji na zmianę (począwszy od pierwszych postów w 2009 r.) czytałem i wprowadzałem zmiany (usuwając wszelkimi słowami ewentualny spam, a także ograniczając wewnętrzne linki do rozsądnych granic) w 360 moich artykułów z 411 istniejących dalej w tej chwili. Kilkadziesiąt z nich zostało całkowicie przepisanych, kilkadziesiąt miało zaktualizowane zrzuty ekranu, poprawki, uzupełnienia itp.

Ogólnie rzecz biorąc, robiłem wszystko, co mogłem, niestrudzenie. W tym czasie ujawniła się potworna zdolność do pracy (pracowałem po 12 godzin dziennie i udało mi się w tym czasie wyprodukować od 2 do 6 artykułów). Pojawiły się pierwsze pozytywne rezultaty w postaci poprawy pozycji i zwiększonego ruchu z Yandex i Google.

Ale wciąż dręczą mnie wątpliwości, jakiego filtra Google używam od półtora roku – Pandy czy Pingwina. W związku z tym pojawia się pytanie: czy konieczne jest zawracanie sobie głowy selekcją wiadomości spamowych? linki zwrotne i dodaj je do Wypieraj się linków, co zaleca się każdemu, kto cierpiał na Pingwina. A jak możesz to zrobić mając 30 000 backów w Google Webmaster?

Relaks filtrów od Yandex i Google

Jak już wspomniałem, wydajność jest teraz po prostu fenomenalna i świetnie byłoby zastosować ją do czegoś innego przydatnego i obiecującego, ponieważ niewiele artykułów zostało do przerobienia i nie można już znaleźć w nich spamu, może z wyjątkiem może różne drobnostki, które poprawiam.

Kochani, od razu przepraszam, że w dalszym ciągu będę posługiwał się nietolerancyjnym „ruchem”, a nie liczbą odwiedzających z takiej a takiej wyszukiwarki, bo tak jest faktycznie prościej i bardziej przystępnie (mniej słów, ale więcej znaczenia). Nic osobistego, po prostu biznes. Dziękuję.

25 września dowiedziałem się, że otrzymałem ruch z Yandex jest dwa do trzech razy większy niż zwykle w ostatnio.

Odzwierciedlało to coś takiego w ogólnym obrazie frekwencji:

Po pierwsze, było to trochę nieoczekiwane, ponieważ właśnie w tym momencie całkowicie pogodziłem się z obecną opłakaną sytuacją i po prostu kontynuowałem oranie bez specjalnych skarg na wynik. Co więcej, nawet latem byłem czasami gotowy rozdzierać się i rzucać z powodu bezsilności zmiany czegoś na lepsze, ale teraz całkowicie przestałem drżeć.

Po drugie, nie mając doświadczenia w wychodzeniu z filtrów, nie wiem, co myśleć o perspektywach na przyszłość. Nie cały ruch na Yandex powrócił i zapewniam siebie, że nie spadł od razu, ale w ciągu kilku wzlotów.

Swoją drogą, można przefiltrować nie tylko tonę linków z GS (na początku tej wiosny doświadczyłem potwornego przypływu kilku tysięcy linków zwrotnych i nie byłem zaangażowany w żaden z nich). Mogą też próbować bawić się behawioralnie, tj. pogorszyć wskaźniki zarówno zachowań użytkowników w wynikach wyszukiwania, jak i na stronie.

Na przykład tej samej wiosny otrzymałem tysiące ruchu z niektórych stron z dowcipami, gagami i innymi bzdurami, które trudno było nazwać inaczej niż GS. Nie jest jasne, co to było. Na przykład, chcąc przeczytać kolejny dowcip, użytkownik trafił na moją stronę 404 i nie wiedział, co robić. Musieliśmy nawet przyjąć takich gości, aby chociaż w niewielkim stopniu zmniejszyć ich awaryjność.

Penguin nadal trzyma się zasady ogólnej aktualizacji algorytmu filtrującego i możesz wyraźnie prześledzić (jeśli Ci to przeszkadza) wszystkie jego aktualizacje. Teraz, nawiasem mówiąc, wygląda na to, że trwa jego kolejna aktualizacja do wersji 2.1, co potwierdzają odpowiednie wątki na forach SEO.

Panda stała się ostatnio częścią ogólnego algorytmu używanego przez Google do rankingu i najprawdopodobniej nie będzie już żadnych wyraźnych aktualizacji dla wszystkich witryn jednocześnie. Niemniej jednak, jeśli cofniemy się trochę do historii, to na podstawie daty rozpoczęcia spadku ruchu możemy stwierdzić, który filtr podlegał temu lub innemu zasób.

Jak ustalić, któremu filtrowi Google podlega dana witryna – Panda czy Pingwin

Swoją drogą, właśnie taką metodę sugeruje burżuazja zasób internetowy Barracuda, a mianowicie jej produkt o nazwie Narzędzie Panguin .

Problem w tym, że tę usługę trzeba będzie zapewnić dostęp do statystyk Twojego licznika Google Analytics, a on już nałoży dokładne daty aktualizacji Pandy i Pingwina na wyrwany z niego wykres, aby zrozumieć, co dokładnie z tego duetu sparaliżowało Twój zasób.

Na początku pomyślałem, że mam co najmniej dwa powody, aby tego nie robić:

  1. Po pierwsze, nie mam jeszcze Analytics od roku, ponieważ zanim byłem w pełni usatysfakcjonowany, cóż, licznik LI jest również dość pouczający.
  2. Po drugie, Adsense też na mnie wisi, a to są pieniądze, którymi nie należy nikomu ufać. Ale chwilę później przypomniałem sobie, że Analytics, podobnie jak Metrica, ma możliwość tworzenia kont gości, z czego próbowałem skorzystać.

Ogólnie rzecz biorąc, przeszedłem do administracji na moim głównym koncie Analytics i przekazałem uprawnienia do przeglądania i analizowania statystyk na moje drugie konto Google, które w ogóle nie jest z nim powiązane.

Następnie w przeglądarce, w której miałem już autoryzację w ramach tego niezbyt ważnego konta, kliknąłem link „Zaloguj się do Analytics” ze strony Panguin Tool i zostałem poproszony o potwierdzenie chęci dostarczania tej aplikacji danych statystycznych z Analytics .

Nie przeszkadzało mi to. Następnie poproszono mnie o wybranie konkretnego licznika.

Cóż, w końcu zapewnili pożądany harmonogram z datami premiery Pandy i Pingwina, ale tak jak wspomniałem powyżej, licznik ten mam nie tak dawno i nie ma jeszcze początku 2012 roku.

Dlatego ustal jaki filtr zastosował Google? do mojej witryny, dlatego nie powiodło się. Poza tym na przełomie wiosny i lata tego roku w zasadzie usunąłem kod Analytics z powodów, które obecnie nie są dla mnie jasne. Spadek ruchu z Google, jaki miał miejsce wiosną tego roku, nie wydaje się mieć związku ani z Pandą, ani z Pingwinem.

Ale może będziesz miał więcej szczęścia. Na wykresie oraz w tabelach poniżej możesz zobaczyć także statystyki dotyczące stron docelowych oraz słowa kluczowe, z którego pochodził ruch.

Drugim sposobem ustalenia, które ugryzienie zwierzęcia jest spojrzenie na znaki pośrednie (odciski zębów). Na przykład uważa się, że kiedy zostaniesz uderzony przez pingwina, stanowiska będą spadać wyłącznie na indywidualne prośby, strony docelowe którzy będą spamowani złymi linkami przychodzącymi.

Pod Pandą najprawdopodobniej nastąpi ogólny spadek ruchu, tak jakbyś to zrobił, chociaż toczy się debata na temat zasadności używania tego terminu. Moja sytuacja pod tym względem jest bardziej podobna do drugiej opcji.

Teraz jednak spam został wyeliminowany, ale zmiany na lepsze w Google rozpoczęły się dopiero po ruchu w Yandex. Pod tym względem nadal jestem zagubiony w moim dalsze działania i ich wykonalność.

Wypieraj się linków – jak poinformować Google o nieprawidłowych linkach do Twojej witryny

Odbywa się to w zakładce „Ruch związany z wyszukiwaniem” – „Linki do Twojej witryny”. Nad listą znajdziesz trzy przyciski, które pozwolą Ci pobrać wszystkie podkłady znalezione w Google. Najbardziej podoba mi się ostatnia opcja, ponieważ będzie ona sortowana według daty pojawienia się linków zwrotnych.

Jednak informacje zostaną tutaj podane tylko o 1000 domenach, z których najwięcej linków zwrotnych znajduje się na Twojej stronie. Sądząc po różnych serwisach analizy wstecznej, linki do mojego bloga znajdują się w trzech tysiącach domen, a ich łączna liczba to ponad trzydzieści tysięcy dostępnych w Google.

Ale nie o to chodzi. Wyobraźmy sobie, że przejrzałem te adresy URL i z dużym prawdopodobieństwem zidentyfikowałem te strony lub nawet całe domeny, które nie należą do mojego profilu linków. Teraz pozostaje tylko umieścić całe to bogactwo w jednym pliku txt rozszerzenie i dowolną dogodną dla Ciebie nazwę.

Podczas tworzenia pliku dla linków Disavow będziesz potrzebować trzymaj się prostych zasad:

  1. Adres URL każdego nowa strona lub domena jest zapisana w osobnej linii: http://plohoysite.ru/plohaystranichka.html
  2. Rejestracja domeny odbywa się według następującej zasady: domain:plohoysite.com
  3. Możesz dodawać komentarze, ale muszą być poprzedzone hashem (# - hash)

Gdy już przygotujesz listę, idź do strony Wypieraj się linków(Nie znalazłem bezpośredniej ścieżki z interfejsu webmastera Google, najwyraźniej boją się, że bez zastanowienia skorzystają z tego narzędzia):

Wybierz z listy potrzebną witrynę i kliknij przycisk „Wyrzekaj się linków”. Zostaniesz ostrzeżony o możliwych negatywnych konsekwencjach tego działania, co prawda nie widziałem jeszcze takich recenzji na forach, ale możliwe, że ci, którzy dodali tutaj swoje listy, nie mieli już ruchu z Google, a jak wiemy, to nie można uzyskać wyniku negatywnego.

Swoją drogą, mnie osobiście ten napis niepokoi, bo nie chciałbym pochopnymi działaniami raczej pogorszyć niż poprawić obecną sytuację. Cóż, jeśli zdecydujesz się na eksperyment, to na następnej stronie zostaniesz poproszony o pobranie przygotowanego pliku z linkami Disavow z komputera i przesłanie go do Google w celu sprawdzenia.

Ale umieść wybrane w kolumnie Adresy URL lub domeny - to najprostsza rzecz. Jednak najtrudniejszą rzeczą jest odfiltrowanie tych bardzo spamerskich i złych linków zwrotnych, a następnie poproszenie Google, aby nie brał ich pod uwagę.

Sytuację dodatkowo pogarsza fakt, że nie ma jednoznacznej opinii na temat korzyści płynących z tego działania, nawet jeśli wiesz na pewno, że Twoja witryna została dotknięta przez Penguina lub zostały na nią nałożone ręczne sankcje. Opinie ekspertów były podzielone. Na przykład Devaka w celach biznesowych dodał nawet każde wsparcie swojego bloga do linków Disavow, ale nie zauważył żadnych rezultatów, chociaż to on jest skłonny, co dziwne, do przydatności tego narzędzia.

Nawiasem mówiąc, przy stosowaniu sankcji ręcznych sytuacja z wydostaniem się spod filtra może być jeszcze prostsza, a raczej szybsza. Filtry zastosowane ręcznie można teraz zobaczyć w Google Webmaster na karcie „Ruch związany z wyszukiwaniem” - „Środki ręczne”.

W tym przypadku już kilka tygodni po wgraniu listy do linków Disavow i złożeniu wniosku o weryfikację (o ile rozumiem, teraz można to zrobić w tej samej zakładce, a nie na osobnej, sprytnie ukrytej stronie, jak to było wcześniej), filtr można usunąć, a pozycje powrócą do swoich pierwotnych wartości.

Jak wybrać złe linki zwrotne, które chcesz dodać do linków, których się wypierasz

W przypadku Pingwina a pomyślne usunięcie linków spamowych będzie wymagało dość długiego oczekiwania na rezultaty - do kolejnej aktualizacji tego algorytmu. Możliwe, że zajmie to miesiące, a może nawet rok. Czy nadal chcesz wypróbować linki Disavow? Cóż, w takim razie podzielę się z Wami spostrzeżeniami, które zebrałem, szukając sposobu na utworzenie tej listy.

Nie udało mi się tego zrobić ręcznie, nie ze względu na ogrom monotonnej pracy, ale dlatego, że nie mam odpowiedniej intuicji, aby wygląd i na podstawie niewielkiej ilości zebranych danych statystycznych wyciągaj wnioski o dodaniu danej strony lub całej domeny do listy nierzetelnych.

Tutaj jest jasno potrzebna automatyzacja, która musi wyraźnie oddzielić ziarno od plew i w żadnym wypadku nie „wylewać dziecka z kąpielą”. Oczywiście potrzebujemy usług, które oprócz możliwości zebrania całej masy linków prowadzących do Twojej witryny, byłyby również w stanie dokonać oceny jakości dla każdego z darczyńców.

Istnieją takie usługi i zna je wielu webmasterów, a tym bardziej optymalizatorów. Inną rzeczą jest to, że za analizę dużej liczby backów w tych usługach trzeba będzie zapłacić całkiem sporo pieniędzy. Co więcej, jeśli na co dzień będziesz zawodowo korzystać z takich zasobów, to pieniądze się zwrócą, ale dla naszego zadania będą, jak mi się wydaje, marnotrawstwem.

Pojawiła się publikacja na temat wyszukiwania, w której przedstawiciel jednej z dużych firm SEO podzielił się swoim doświadczeniem w wyborze kandydatów na listę linków Disavow. Zasugerował użycie trzy usługi łącza: bourgeois z Moz o nazwie Open Site Explorer, a także krajowe Solomono (Linkpad) i Ahrefs.

Jak rozumiem, nie muszę nic jeść ani pić przez miesiąc, aby zapłacić za sprawdzenie moich kilkudziesięciu tysięcy linków zwrotnych i pobranie na nich wszystkich danych do dalszej analizy i przetwarzania. Oczywiście duża firma SEO ma już te wszystkie płatne pakiety, bo w pełni płacą za siebie stała praca z dziesiątkami, a nawet setkami projektów klientów.

Ale jego metoda jest dość przekonująca. Znajomy sugeruje pobranie wskaźników jakości dawców z Open Site Explorer, Solomono i Ahrefs. Nazywają się one odpowiednio Domain Authority, iGood i Ahrefs Domain Rank.

Następnie umieść to wszystko w jednej tabeli i wybierz kandydatów do linków Disavow w oparciu o zasadę najniższych współczynników wagowych dla jakości dawcy we wszystkich trzech tych usługach łącznie. Zmniejszy to prawdopodobieństwo błędu.

Niestety niewiele osób może sobie pozwolić na taki luksus, chociaż jeśli ktoś zlecił to firmie zewnętrznej, to nie odmówiłbym korzystania z niego za rozsądną opłatą, ale jednocześnie chciałbym otrzymać nie tylko listę kandydatów do linków Disavow, ale dokładnie wszystkie te pliki do pobrania z Open Site Explorer, Solomono i Ahrefs, aby przekonać się na własne oczy o słuszności poczynionych wniosków i o tym, że nie daję się prowadzić za nos.

Drugą opcją, na którą natrafiłem, szukając spamowych linków zwrotnych w Twoim profilu linków, była w użyciu płatnego programu FastTrust od Alaicha (znanego blogera). Właściwie na stronie promocyjnej tego programu natknąłem się na opis przygotowania listy kandydatów do usunięcia za linki Disavow.

Wszystko wydaje się być świetne. Cena wynosi 3000 rubli, co choć jest trochę drogie, jest znośne, zwłaszcza że można go również kupić za bonusy Profit Partner, których mam akurat odpowiednią kwotę.

Ale! Przyjrzałem się bliżej wymaganiom i pożądanym warunkom, na jakich ten program będzie działać poprawnie. Okazało się, że nie wszystko jest takie proste:

Ogólnie to ostudziło mój zapał i zdałem sobie sprawę, że zakup programu to wciąż połowa sukcesu, a poza tym będę musiał poszukać proxy i zainwestować pieniądze w Ahrefs, aby uzyskać jak najbardziej odpowiedni wynik. Myślę, że zebranie danych zajmie sporo czasu.

Dlatego też postanowiłam zrobić sobie przerwę i zanim wyleciało mi to z głowy, spisałam w tym poście wszystkie moje dotychczasowe przemyślenia na temat Pingwina i linków Disavow, aby móc do tego wrócić później.

No mniej więcej coś takiego. Co o tym sądzisz? o filtrze zastosowanym przez Google do ktonanovenkogo? Czy to Panda czy Pingwin? Czy warto zawracać sobie głowę linkami Disavow? Jeśli tak, to jak odizolować nonsensowne plecy?

Powodzenia! Do zobaczenia wkrótce na stronach bloga

Możesz być zainteresowany

Usuwanie witryny z filtra Google Penguin - przewodnik krok po kroku Dlaczego możesz zostać wyrzucony z Yandex, podlegać AGS lub filtrowi na stopy, a także sposoby uniknięcia tych sankcji
GoGetLinks - wieczne linki do promocji serwisu i zarabiania na giełdzie GoGetLinks dla webmasterów
Statystyka zapytania wyszukiwania Yandex, Google i Rambler, jak i dlaczego pracować z Wordstatem
Rozszyfrowanie i wyjaśnienie skrótów, terminów i żargonu SEO
Terminologia SEO, akronimy i żargon
Usługi internetowe dla webmasterów - wszystko, czego potrzebujesz do pisania artykułów, ich optymalizacja wyszukiwarek i analiza jego powodzenia
Metody optymalizacji treści i uwzględnienia tematyki serwisu podczas promocji linków w celu minimalizacji kosztów
Rel Nofollow i Noindex – jak zablokować indeksację przez Yandex i Google linki zewnętrzne na stronie internetowej



Jeśli zauważysz błąd, zaznacz fragment tekstu i naciśnij Ctrl+Enter
UDZIAŁ: