Ablakok.  Vírusok.  Jegyzetfüzetek.  Internet.  hivatal.  Segédprogramok.  Drivers

A Google Panda a Google szűrőprogramja. Feladata az alacsony minőségű tartalommal rendelkező webhelyek figyelése és blokkolása.

Még több videó a csatornánkon – tanulja meg az internetes marketinget a SEMANTICA segítségével

A Google keresőmotorja fő funkciójának tekinti, hogy releváns, érdekes és hasznos információ. Éppen ezért keményen küzd a promóció fekete módszereivel, amikor az oldal nem minőségi és igényes tartalom létrehozásával, hanem a keresők manipulálásával kerül a találatok TOP-jába.

Panda története

A Google Panda algoritmus automatikus. Létrehozása felé az első lépés az értékelés volt egy nagy szám webhelyeket, hogy megfeleljenek a Google tartalmi követelményeinek. A tesztelők egy csoportja manuálisan végezte el, és lehetővé tette a webhely tartalmának minőségét befolyásoló fő tényezők formalizálását.

A Google Panda először 2011 februárjában jelent meg, azonban áprilisban már teljesen működőképes volt. Csak 2011 során 57 alkalommal, majd 2012-ben további 5 alkalommal frissítették az algoritmust. A következő 2013-at hozta Utolsó frissítés Pandák saját számmal - Panda 25, amely ugyanazon év júniusában és júliusában kisebb változásokon ment keresztül. legújabb verzió A 2014 májusában megjelent Panda 4.0 megrázta a hírgyűjtőket, és olyan óriásokat érintett, mint az Ebay.

A mai napig az algoritmust szinte folyamatosan fejlesztik, havonta frissítik 10 napon keresztül. A cég nem teszi közzé a frissítések dátumát annak érdekében, hogy a lehető legnehezebbé tegye a webhelyek pozícióinak manipulálását Keresési eredmények.

A Google Panda webhely követelményei

A Google Panda elsősorban az alacsony minőségű tartalmak leküzdésére szolgál, ezért a webhelyekkel szemben támasztott fő követelményei a közzétett információk minőségén alapulnak.

  1. Az oldal elsősorban egyedi tartalmat tartalmazzon, nem tartalmazhat duplikált szövegeket és képeket.
  2. Automatikusan generált szövegek használata nem megengedett.
  3. A keresőrobotoknak és a felhasználóknak ugyanazt kell látniuk, nem használhat olyan oldalakat, amelyek csak a keresőmotorok számára láthatók, és kizárólag az oldal népszerűsítéséhez szükségesek.
  4. Az oldal minden oldalának kulcsszavainak meg kell felelniük annak tartalmának, a kulcsszavakkal történő spamelés elfogadhatatlan.
  5. Az oldalakon található linkeknek és hirdetéseknek meg kell felelniük a szövegek tárgyának és az oldal egyéb tartalmának.
  6. Tilos ajtónyílásokat, rejtett linkeket vagy rejtett szöveget használni, amelynek célja a megtévesztés keresőmotor.

A Google Panda algoritmus megbünteti, ha az oldal oldalain forráshivatkozás nélkül más forrásból másolt tartalom, azonos szerkezetű sabloncikkek, ismétlődő oldalak találhatók. Azok az oldalak, ahol a szövegek folyamatos lapok, illusztrációk, videók vagy infografikák nélkül, ugyanazokkal a metacímkékkel a különböző oldalakon, a Google Panda szűrő alá eshetnek.

Úgy gondolják, hogy ez az algoritmus nem fordít nagy figyelmet a hivatkozásokra, de megköveteli, hogy a cikkekben található hivatkozások feltétlenül megfeleljenek a témájuknak. Vagyis a műanyag ablakokkal kapcsolatos szövegek nem tartalmazhatnak utalásokat a tea árusítására stb.

A leírtak mellett a Google Panda nagy figyelmet fordít a viselkedési tényezőkre. Ha webhelyének magas a visszafordulási aránya, a felhasználók az első oldal után elhagyják, és soha nem térnek vissza, akkor minden bizonnyal az algoritmus látóterébe kerül.

Hogyan kímélheti meg magát a Google Panda szankcióitól

Hogyan lehet azonosítani Panda akcióját

Mielőtt intézkedne, hogy kikerüljön a Google Panda szűrői alól, győződjön meg arról, hogy megszenvedte a mancsait. Hogyan állapítható meg, hogy a Google Panda okozza-e a problémát, vagy valami más?

Ügyeljen az algoritmus frissítése és a webhely forgalmának csökkenése közötti kapcsolatra. Frissítés A Google Panda havonta kerül megrendezésre, 10 napig tart, a Moz.com weboldalon tájékozódhat. Ha egyezés van, akkor cselekedni kell.

A Panda elfogásának második módja a használata speciális szolgáltatás Barracuda. Ennek az oldalnak az egyik szolgáltatása, a Panguin Tool, miután hozzáfért fiókadataihoz a Google Analytics szolgáltatásban, az onnan vett grafikont lefedi az algoritmus frissítésének dátumával, és választ ad. Ennek a módszernek két hátránya van - nem alkalmas azok számára, akiknek nemrégiben van Google Analytics számlálója, és hozzáférést igényelnek egy fiókhoz, ami viszont lehetővé teszi, hogy hozzáférjen a Google Analytics-fiókjában lévő pénzhez.

A harmadik módszer meglehetősen egyszerű, de időt és türelmet igényel. A webhely minden oldalát ellenőriznie kell. Ezt így kell csinálni:

  1. Másoljon néhány mondatot az oldalon található szövegből a Google keresőmezőjébe. Elegendő 100-200 karaktert venni.
  2. Nézze meg, hogy webhelye megjelenik-e a SERP-k tetején.
  3. Zárja be ugyanazt a részt keresősor idézőjelek közé, és újra nézze meg, hogy a webhely szerepel-e a keresési eredmények között vagy sem.

Ha a webhely csak a második esetben jelenik meg a kérdésben, akkor a gondok felelőse a Google Panda. Ne feledje, hogy minden oldalt ellenőriznie kell.

Hogyan lehet kijutni a szűrőből

A Panda szűrő alól való kilépéshez a következőket kell tennie:

  1. Végezze el a webhely tartalmának teljes felülvizsgálatát, és cserélje ki a legtöbb szöveget érdekes és hasznos szövegekre, a többit pedig dolgozza át úgy, hogy egyedivé és relevánssá váljon.
  2. Távolítsa el a felesleges kulcsszavakat minden szinten és metacímkéből. Változtassa meg a címsorokat relevánsra és vonzóra, hogy megragadja a látogatót, és kedvet csináljon a szöveg elolvasásához.
  3. Tisztítsa meg a webhelyet az irreleváns és agresszív reklámoktól, ami jelentősen javítja a viselkedési tényezőket.
  4. Távolítsa el az összes ismétlődést és hibás hivatkozást, törölje a kulcsszavak kijelölését.
  5. Ellenőrizze az oldalakon található hivatkozásokat, hogy megfelelnek-e az oldalak tartalmának, és cserélje ki vagy távolítsa el a nem releváns hivatkozásokat.

Ezek a lépések segítenek abban, hogy idővel megszabaduljon a Panda szűrőitől. Azonban kérjük, vegye figyelembe: a Google Panda egy automatikus algoritmus, és egyetlen fellebbezés sem segít gyorsan megszabadulni a szankcióitól. Töltsd fel az oldalt érdekes egyedi tartalommal, ne ragadj el attól, hogy hirdetéseket helyezel el rajta, és nem dőlsz be a Google okos panda vadállatának.

Réges-régen, egy messzi-messzi galaxisban a Google keresője elkészítette a Panda nevű algoritmust. Csak ketten fejlesztették ki ezt az algoritmust, ez Amit Singal és Matt Kats. Ez az algoritmus abban különbözik társaitól, hogy mindenekelőtt az emberi tényezőre készült. Az algoritmus más tényezőket is figyelembe vesz a webhely rangsorolásakor.

Ebben az anyagban megpróbáltunk mindent összegyűjteni, ami a Google Panda algoritmushoz kapcsolódhat, hogyan határozható meg, és hogyan ne essünk alá a sikeres működés érdekében. reklámozza az oldalt.

Mit vesz figyelembe a Google Panda algoritmus?

Az oldalon található tartalom egyedi?

A Panda algoritmus mindenekelőtt arra figyel, hogy más oldalakon is megtalálható-e ugyanaz a tartalom. Sőt, nem csak hasonló szövegeket keres a webhelyeken vagy oldalakon, hanem a szövegtöredékeket is figyelembe veszi. Más szóval, a szöveg egyediségét százalékban határozzák meg. Tegyük fel, hogy ha a cikket teljesen átmásolták, akkor az egyediség nullával egyenlő. Ha a szöveg egy részét másoljuk, akkor az egyediség például 80% lehet.

Az algoritmus kiszámítja az egyediséget mind magát a webhelyet, mind egy külön oldalt, beleértve a webhely más oldalaihoz való viszonyát is. Ezen kívül a panda algoritmus olyan eszközzel van felvértezve, mint a sablonok. Más szavakkal, képes azonosítani a különböző webhelyeken található hasonló oldalakat, még akkor is, ha azokat eltérő kulcsszavakkal hirdetik.

Ráadásul ezt az algoritmus a hirdetésekre is figyel. Ha egy jogi szolgáltatásokat nyújtó oldal versenytársak hirdetéseit tartalmazza, akkor az algoritmus ezt kijavítja és figyelembe veszi az oldal rangsorolásakor.

A keresőmotorok feladata, hogy a felhasználónak választ adjanak a kérdésére. A Panda algoritmus feladata, hogy egy kicsit a földre terelje az olyan oldalak tulajdonosait, amelyek célja csak a pénzszerzés. Általában véve ennek az algoritmusnak a célja borzasztóan egyszerű. Csak egyedi, releváns és hasznos webhelyek jelenhetnek meg a keresési eredmények között. Íme egy példa, hogyan készítsünk jó oktatási tartalmat.

A linkek száma és minősége (linkprofil)

Az algoritmus figyelembe veszi a hivatkozásokat is. Sőt, figyelembe vesz minden linket, mind a bejövő, mind a kimenő. Csak egy követelmény van, és mindkét webhelynek azonos témájúnak kell lennie. Természetesen az algoritmus nyomon követi a bejövő és kimenő linkek számát, de nem ez a legfontosabb szempont az oldal rangsorolásakor. Az első dolog, ami érdekli, az az emberi tényező. Más szóval, gondosan figyeli a felhasználót az oldalon. Mit csinál, mennyi időt tölt, olvas-e anyagot, kitölt-e űrlapokat stb. Természetesen a fejlesztők nagyszerű munkát végeztek ennek az algoritmusnak az elkészítésében és tesztelésében. Valójában ez az algoritmus polírozást és egyéb algoritmusokat igényelt, hogy a keresőmotor csak jó minőségű webhelyeket tudjon megjeleníteni.

Az algoritmus bevezetésével a webhely rangsorolásakor a keresési eredmények elejére kerüljön csak igazán hasznos és jó minőségű oldalak lehetnek. Ez az algoritmus tette a keresőmotort Google rendszer hatékony keresőeszköz. Ezt igazolja, hogy a Google közönsége exponenciálisan növekszik. Ráadásul a cég költségvetése is ugrásszerűen növekszik. Hiszen továbbra is lehetséges a felhasználó megtévesztése az úgynevezett fekete promóciós módszerekkel. Különféle chipek és agresszív reklámozás. De a befektetőt nem lehet megtéveszteni, ő pedig tökéletesen tudja és tisztában van vele, hogy a Google nyereséges üzlet.

Természetesen a vállalat ilyen növekedése nem csak egy algoritmus érdeme. És most vissza a cikk témájához.

Viselkedési tényezők

Ez a mutató számos kritériumot tartalmaz, például:

  • visszafordulási arány;
  • mennyi időt tölt egy személy az oldalon egy munkamenet során;
  • hány oldalt látogatott meg egy látogatás során;
  • visszatér-e az oldalra, és milyen gyakran;
  • mennyit jelenik meg a webhely a keresési eredmények között, és hányan követik a linket (CTR).

Az algoritmus mindezt nyomon követi, és ezt minden felhasználónál megteszi. Vagyis minden látogatót követ, és alaposan megnézi, mit csinál, kattint-e a linkekre, kitölt-e űrlapokat, görgeti-e az oldalt vagy sem stb. Így az algoritmus meghatározza, hogy a felhasználó válaszol-e az oldalról érkező kérésekre, ill külön oldalés hogy a felhasználó megtalálja-e a választ a keresősávba beírt lekérdezésre.

Hogyan lehet megérteni, hogy a webhely a Panda szűrő alá került, és mit kell tenni?

  1. Jelentős forgalomcsökkenés. Ha úgy találja, hogy a Google-tól érkező kattintások száma drámaian csökkent, akkor az egyik lehetséges okok, lehet Panda és technikai problémák nem azonosított webhelyek:
    — lassú szerverválasz;
    — az oldalak és egyebek elérhetetlensége.
    Ennek ellenőrzéséhez alaposan elemezze ezt A Google AnalyticsÉs Search Console.
  2. Legyen óvatos a linkekkel. Bár a Google linkjei továbbra is kulcsfontosságú rangsorolási tényezők, nem érdemes túlzottan rájuk koncentrálni, mert a keresőmotor már régóta megtanulta megkülönböztetni a természetes linkeket a vásárolt linkektől, valamint felismerni a linkek tömegének természetellenes növekedését.
  3. Rossz szövegek. A nem emberi nyelven írt szövegek, sok helyesírási hibával, rövidek, nem egyediek és újságoldal formájában vannak elhelyezve - minden webhelyet megölnek, mivel jelzésként szolgálnak a Panda számára, hogy csökkentse az oldalt a keresési eredmények között.
    Mit kell tenni? Írjon kiváló minőségű, egyedi tartalmat, amely hasznos a felhasználók számára, gondosan ellenőrizze és szerkessze.
  4. Nincs videó vagy fotó. Ha nem hígítja fel az oldal cikkeinek és oldalainak tartalmát képekkel, infografikákkal és videókkal, akkor az olvasó szemének egyszerűen nincs mit megfognia, és ha ez rossz a felhasználónak, akkor a Pandának nem tetszik.
    Adjon hozzá optimalizáltabb fotókat és videókat az attribútumok kitöltésével alt és cím.
  5. Kevés belső link. Az oldalra való belépés után a felhasználónak könnyen és nem kényszerülnie kell a navigálásra, miközben pontosan azokra az oldalakra kell eljutnia, amelyeket várt. És itt nagyon fontos a hozzáértő belső linkelés elkészítése, amely lehetővé teszi az ilyen oldalak elérését. Szintén remek megoldás a legfrissebb blogbejegyzésekkel, a legnépszerűbb cikkekkel és a legérdekesebb rovatokkal való kütyü elhelyezésére.

És ne feledd: "Jobb, ha nem haragszol a Pandára!".

A Google panda egy 2011-ben kifejlesztett és elindított algoritmus Google, amelyet a webhelyek minőségi elemzésére használnak a keresőmotorok eredményei között.

Képes megkeresni és kizárni a rangsorból (vagy lejjebb vinni a dokumentumok pozícióit) azokat az oldalakat, amelyek nagy mennyiségű, nem egyedi tartalommal rendelkeznek, nem tartalmaznak semmilyen hasznos információt, és kizárólag pénzszerzésre szolgálnak.

Mindenekelőtt a Google Panda figyelembe veszi, hogy egy adott erőforrás mennyire felhasználó-orientált, azonban a webhely minőségének meghatározásához ez az algoritmus nem csak ezt a kritériumot használja, hanem számos más, ugyanolyan fontos kritériumot is, amelyeket figyelembe kell venni. keresőmotorok népszerűsítésekor.

A webhely értékelési kritériumai, amelyeket a Google panda algoritmus figyelembe vesz

  • . A Panda algoritmus figyelembe veszi azt az időt, amit a felhasználók az oldalon töltenek, a webhelyre való visszatérések százalékos arányát, a visszafordulások százalékos arányát, a visszatérések számát az átmenetek teljes számához viszonyítva, a webhelyen belüli átmenetek számát, valamint néhány egyéb tényező. Annak érdekében, hogy az oldal jó pozíciókat helyezzen el a keresési eredmények között, a webmesternek vonzó forrást kell létrehoznia a felhasználók számára, meg kell töltenie egyedi cikkekkel, jó minőségű belső linkekkel, átlátható navigációt kell biztosítania, gyors keresés a szükséges információkat, és gondolkodjon el azon, hogy mitől maradhat még a felhasználó a lehető leghosszabb ideig az oldalon.
  • . Különböző weboldal-promóciós módszerek egyidejű alkalmazása esetén is kiemelt figyelmet kell fordítani az oldal oldalain elhelyezett tartalom minőségére. A Panda algoritmus elemzi az oldalon megjelenített információk egyediségét a más forrásokból kölcsönzött tartalom százalékos aránya alapján a teljes tartalom mennyiségéhez viszonyítva az oldalon és az egyes oldalakon külön-külön. Meg kell értenie, hogy az egyetlen oldalon közzétett rossz minőségű információ nemcsak ennek az oldalnak, hanem az egész erőforrásnak a keresési eredményei között ronthatja a pozíciót. Hasonló negatív hatást gyakorol az oldalra az azonos típusú, eltérő tartalmú szövegek túlzott száma kulcskérdések(magas sztereotípia), valamint olyan szövegek, amelyekben nagy a kulcsszavak és kifejezések sűrűsége (nagy hányinger).
  • link tömeg és reklám. A Google panda algoritmusa meghatározza, hogy az erőforráson elhelyezett hirdetések tárgya mennyire kapcsolódik a témához

Sok SEO-optimalizáló már régóta tisztában van ezzel Google algoritmusok, mint a Panda, a Penguin és a Hummingbird. Valaki maga is szenvedett tőlük, valakinek sikerült sikeresen elkerülnie tettüket.

De a legtöbb kezdő, aki webhelyét a keresőmotorokban szeretné népszerűsíteni, teljesen félreérti, hogy ezek az algoritmusok pontosan mit is ütnek.

A webmesterek jelentős része egyáltalán nem veszi figyelembe ezeket a webhelyek létrehozásakor. És ugyanakkor, bár a Panda, a Penguin és a Hummingbird pusztító akciója sok helyszínt lekaszál minden nap, nem olyan nehéz megkerülni őket, ha mindent helyesen értesz és mindent jól csinálsz.

Valójában ezeknek az algoritmusoknak az alapelvei nem annyira újkeletűek, csupán megjelenésük lehetővé tette a Google (szerinte) rossz minőségű oldalakkal szembeni harcának jelentős racionalizálását, a probléma hatékonyabb tisztázását.

Tehát térjünk át a felülvizsgálatra.

Google keresési algoritmus – Panda

A legelső ebből a háromságból (2011), és az újoncok szerint a legszörnyűbb. Alapvetően, Panda keresési algoritmus borzasztó nem maguknak a kezdőknek, hanem az általuk létrehozott webhelyekhez való hanyag hozzáállásuk miatt.

Természetesen minden webmester teljes jogú tulajdonosa a weboldalának, úgy készíti el, ahogy akarja, és a Google-tól nincs rá rendelés. Nem szabad azonban megfeledkezni arról, hogy a Google a kibocsátásának teljes tulajdonosa, és amely oldalakat akarja, azt megengedi, hogy megjelenjenek a kiadásában, és melyeket nem, azt nem. Erre használják őket Google keresési algoritmusok.

A Panda volt a keresőmotorok tiltakozásának legelső eszköze nemcsak a kezdők hibái és hanyagsága ellen, hanem a keresőmotorokhoz (és saját projektjeikhez is) való hanyag hozzáállása ellen is, amelyet mindenféle "hatóság" tanúsít. A helyzet az, hogy sok nagy, többnyire kereskedelmi oldal - üzletek, szolgáltatások, címtárak és hasonlók - lehetővé teszi hasonló tartalmú oldalak létrehozását.

Ez alapvetően olyan áruk vagy szolgáltatások leírása, amelyek alapvető paramétereikben hasonlóak, de csak néhány apró részletben különböznek, például:

  • méret;
  • szín;
  • ár stb.

A fő tartalom tehát ugyanaz az ilyen oldalakon, gyakran a hasonlóság eléri a 90 százalékot vagy még azt is. Idővel nagyon sok klónoldal halmozódik fel a webhelyen. Ez természetesen semmilyen módon nem zavarja a látogatókat, de a keresőmotorok eredményei szó szerint eltömődnek az azonos típusú webes dokumentumoktól.

Mielőtt bemutatták panda algoritmus, a Google egyszerűen „ragasztotta” az ilyen duplikációkat, vagyis csak az egyiket engedte megjelenni a keresési eredmények között, a többit pedig a „további találatok” kategóriába helyezte. De ahogy mondani szokták, egyelőre minden rendben van és új google keresőalgoritmusok jelentek meg. És eljött a pillanat, amikor még a "többleteredmények" sem tudtak javítani a képen.

A Panda algoritmus célja, hogy megtalálja és azonosítsa az ilyen weboldalakat, meghatározza azok elfogadható számát, és intézkedjen olyan projektekben, ahol túl sok ilyen oldal van.

Amint a Panda algoritmus teljes erővel működni kezdett, számos mérvadó oldal következett a lap tetején lévő "ízletes" pozícióiról, és ennek megfelelően nagyon "elmerült" a forgalomban.

Természetesen ezeknek a webhelyeknek a tulajdonosai, miután rájöttek egy ilyen katasztrófa okaira (az új Google algoritmusok tanulmányozása után), megpróbálták a lehető leggyorsabban korrigálni a helyzetet, de nem mindenki tért vissza a "kenyérhelyekre". Helyüket sikeresebb versenyzők foglalták el, akik időben reagáltak google keresési algoritmusok, vagy kezdetben egyáltalán nem szegte meg az új szabályokat.

Google algoritmus: Pingvin

A következő algoritmus - Penguin (2012) - teljesen más területekre irányul, és nem közvetlenül érinti a webhelyeket, hanem csak közvetetten - a link tömegével.. Sok webmester, sőt meglehetősen tapasztalt SEO-optimalizáló egészen a közelmúltig nagyon figyelmetlen volt azokkal a hivatkozásokkal kapcsolatban, amelyeket mások internetes forrásaiból szereztek webhelyükre. Amikor pedig bejelentették, hogy az új algoritmus (Penguin) a linkek rangsorolásával foglalkozik majd, a "megbízható" oldalak tulajdonosainak nagy része ennek gyakorlatilag nem tulajdonított jelentőséget.

Természetesen, és már jóval a Pingvin megjelenése előtt is ismert volt, hogy a keresőmotorok nagyon negatívan viszonyulnak a megvásárolt linkekhez, és minden lehetséges módon harcolnak a szabálysértők ellen. A legjózanabb webmesterek nem vették fel a kapcsolatot a linkcserékkel, és úgymond privátban szerezték be a linkeket, abban a hitben, hogy mivel nem hozhatók kapcsolatba a cserékkel, ezért nem lesz büntetés.

Nem vették azonban figyelembe azt a tényt, hogy sok adományozó oldal maga is vevő volt a linkekre, és legtöbbjük "elaludt", amikor a Pingvin aktívan cselekedni kezdett. Természetesen ezekről az oldalakról minden link eltűnt, a „harmadik” oldalak pedig egyszerűen elveszítették linktömegük jelentős részét.

És ha egy webhely elveszíti linktömegének egy részét, akkor természetesen megereszkedik a keresési eredmények között, és elveszíti forgalmának jelentős részét.

A helyzetet nem értő tulajdonosok egy része ezt a nem létező bűnök büntetésének tekintette. A végén azonban kiderült, hogy itt semmi büntetésnek nincs szaga. Azokat az oldalakat büntették meg, amelyek részvétele a linkek vásárlásában bizonyított. Azok az oldalak pedig, amelyek viszont linkekkel kapcsoltak hozzájuk, egyszerűen „rosszkor voltak rossz helyen”.

Így azt látjuk, hogy a Hummingbird algoritmus egy hatalmas Google SERP szegmenst „lefedett” a linkek vásárlásával kapcsolatban. Ezért bizonyult sokkal hatékonyabbnak, mint a „pontos” sztrájkok - most már szinte minden olyan internetes oldal, amely forgalmát (és ezzel együtt bevételét) a Google kibocsátásától kapja, vagyis ettől a keresőmotortól függ figyelje a linkek tömegét, és próbálja meg elkerülni, hogy olyan oldalakról szerezzen linkeket, amelyekről legalább a legkisebb gyanú merül fel, hogy tőzsdén vásárolják meg linkeiket.

Valaki természetesen átkozza a Google-t, tisztességtelen játékkal vádolva, de nem szabad elfelejtenünk, hogy először is A Google soha nem játszik tisztességtelenül- ezt sem az amerikai erkölcs, sem az amerikai törvények nem engedik meg neki, másodszor pedig még senki sem talált ki hatékonyabbat a vásárolt linkek járványa elleni küzdelemben.

Google algoritmus: Kolibri

A harmadik algoritmus, amely nagyon sok webhelyet érintett, a Hummingbird, amely 2013-ban jelent meg.. Mi a célja ennek az algoritmusnak? És mindenekelőtt olyan ajtók és webhelyek ellen irányul, amelyek az úgynevezett kulcsspameket használják oldalaik reklámozásakor.

Sok Google-felhasználó, amikor a szükséges információkra keres, „egyszerűsített” vagy „helytelen” lekérdezéseket ír be a keresősávba, például „bugyi vásárlás hol”, „rest Thailand” vagy „restaurant Novoszibirsk”, és valaki általában sok hiba a lekérdezésekben.

Természetesen a Google az oldalak legrelevánsabb oldalait „testreszabja” az ilyen lekérdezésekhez, amelyeken természetesen nem fordulnak elő ilyen „rossz” formájú lekérdezések, de logikusan teljesebben válaszol rájuk.

Úgy tűnik, mi a baj itt? De tény, hogy a keresősávba beírt összes lekérdezést a Google az adatbázisában tárolja, és ezt az adatbázist folyamatosan használják az ajtóban dolgozók és a „köpenyes” oldalak gyártói. Rendszerint automatizált eszközök segítségével „kiélesítik” „műveik” lapjait az ilyen „hibás” kérésekre, és ezáltal azonnal adalékokat adnak maguknak.

Indexelő robotok, oldalak tartalmát elemzik, folyamatosan ellenőrzik a Google kulcsadatbázisát, és ha túl sok ilyen „rossz” kifejezés van az oldalakon, akkor az egész oldal gyanúba kerül.

Valaki még azt is szem elől téveszti, hogy a Google még arra is figyel, hogy a tulajdonnevek vagy földrajzi nevek milyen betűvel kezdődnek – nagybetűvel vagy kicsivel. Nos, ha valaki ír egy szöveget, és párszor elrontja a nevet vagy a címet, akkor az nem ijesztő. De ha a városok neve vagy az emberek neve a teljes webhelyen kis betűvel szerepel, akkor ez már egy nem egészen (vagy egyáltalán nem) jó minőségű webhely jelzése.

A Google algoritmusok elemzésének eredménye

Tehát mérlegeltük a három legfontosabb Google algoritmus, amelyek együttesen a webes források létrehozásának és népszerűsítésének nagyon fontos területeit fedik le. Mindegyikük őrködik a webes tartalom minőségének javítása érdekében. Természetesen sok mesterember nagyon sikeresen megkerüli ezeket az algoritmusokat, és továbbra is rossz minőségű webhelyekkel tölti fel a Google találatait, de ez már nem az a mennyiség, mint a Panda, a Penguin és a Hummingbird megjelenése előtt.

Várható, hogy ezek az algoritmusok idővel javulni fognak, erőteljesebb módosítások jelennek meg. Ezért a legjobb, ha azonnal a becsületes munkát célozza meg, és kerülje a bosszantó félreértéseket, amelyek a végén jelentősen árthatnak webes ötletének, amellyel meghódíthatja a Google csúcsait!

Sziasztok, a blogoldal kedves olvasói. Ebben a bejegyzésben szeretnék egy kicsit találgatni, hogy jelenleg mi is forog a fejemben. Alapvetően minden gondolatot az a probléma foglalkoztat, aminek az elmúlt másfél évben sikerült a kedvemért. A megadott linken talál egy cikket, amelyben leírom a jelenlegi helyzetet, beleértve a Runet tükör technikai támogatásával való levelezést.

A kiadvány megjelenése óta eltelt négy és fél hónapban felváltva (a 2009-es első bejegyzésektől kezdve) lektoráltam és szerkesztettem (eltávolítottam az esetleges szavakat tartalmazó spamet, és megfékeztem a belső linkelést is a józan korlátokig) a 360-ban. cikkeim a 411-től Ebben a pillanatban. Közülük több tucatnyit teljesen átírtak, sok tucatban frissítettek screenshotokat, történtek javítások, kiegészítések stb.

Általában mindent megtett, amit lehetett, fáradhatatlanul. Ezalatt az idő alatt óriási hatékonyság mutatkozott meg (napi 12 órát szántam, és ezalatt 2-6 cikket sikerült felpörgetni). Az első pozitív eredmények a pozíciók javulása és a Yandex és a Google megnövekedett forgalmában jelentek meg.

De még mindig vannak kétségek, hogy melyik Google-szűrő alatt ülök másfél éve - Panda vagy Pingvin. Ezzel kapcsolatban felmerül a kérdés, hogy kell-e bajlódni a spam visszamutató linkek kiválasztásával, és hozzá kell-e adni Linkek elutasítása, ahogy azt tanácsolják mindenkinek, aki szenvedett a Pingvintől. És hogyan kell ezt megtenni 30 000 háttérrel a Google Webmasterben?

Pihentető szűrők a Yandextől és a Google-tól

Mint már említettem, a hatékonyság most egyszerűen fenomenális, és jó lenne valami más hasznosra és ígéretesre is alkalmazni, mert nem sok cikk maradt az átdolgozásra, és nem is lehet bennük spamet találni, kivéve talán mást. apróságok javítása.

Srácok, azonnal elnézést kérek, hogy továbbra is az intoleráns "forgalmat" fogom használni, és nem az ilyen-olyan keresők látogatóinak számát, mert tényleg könnyebb és elérhetőbb (kevesebb szó, de több jelentés). Semmi személyes, csak üzlet. Köszönöm.

Szeptember 25-én rájöttem, hogy kapok a Yandex forgalom két-háromszor nagyobb mint szokott mostanában.

A látogatottság összképében ez valami ilyesmiben tükröződött:

Először is, kissé váratlan volt, mert ekkorra már teljesen megbékéltem a jelenlegi siralmas helyzettel, és csak folytattam a szántást, különösebb igény nélkül az eredményre. Sőt, még nyáron is néha készen álltam tépni-dobni, mert tehetetlen volt valami jó irányba változtatni, de aztán teljesen abbahagytam a rángatózást.

Másodszor, mivel nincs tapasztalatom a szűrőkből való kikerüléssel kapcsolatban, nem tudom, mit gondoljak a jövőbeli kilátásokról. Nem tért vissza az összes forgalom a Yandexen, és megnyugtathatom magam, hogy nem esett azonnal, hanem több emelkedés alatt.

A szűrőn egyébként nem csak a GS-ből származó linkek tonnával lehet áthajtani (tavasz elején szörnyen sok volt a linkek száma több ezer háton, és egyikben sem voltam érintett). Megpróbálhatnak rájátszani a viselkedési, pl. rontja a felhasználói viselkedés mutatóit a keresési eredményekben és a webhelyen.

Például egész tavasszal több ezres forgalmat kaptam néhány viccet, viccet és egyéb hülyeséget tartalmazó oldalakról, amelyek nem voltak másak, mint a HS, és nehéz volt hívni őket. Hogy mi volt, az nem világos. Például amikor a következő vicc olvasására vált, a felhasználó a 404-es oldalamra jutott, és nem tudta, mit tegyen. Még az ilyen látogatókat is alá kellett vennem, hogy legalább egy kicsit csökkentsem a visszafordulási arányukat.

A Penguin továbbra is ragaszkodik a szűrési algoritmus általános frissítésének elveihez, és egyértelműen nyomon követheti (ha ez megzavarná) az összes frissítését. Most egyébként úgy tűnik, hogy ez lesz a következő frissítés a 2.1-es verzióra, amit a Seo fórumok megfelelő fiókjai is megerősítenek.

A Panda a közelmúltban tulajdonképpen annak az általános algoritmusnak a részévé vált, amelyet a Google a rangsorolás során használ, és valószínűleg nem lesznek kifejezett frissítések az összes webhelyen egyszerre. De ennek ellenére, ha egy kicsit visszamegyünk a történelembe, akkor arra az időpontra, amikor a forgalom csökkenni kezdett, megállapíthatjuk, hogy ez vagy az erőforrás melyik szűrő alá került.

Hogyan állapítható meg, hogy egy webhely melyik Google-szűrő alatt található - a Panda vagy a Pingvin alatt

Egyébként ez a módszer kínálja a Barracuda polgári online forrás felhasználását, mégpedig annak az ún. PanguinTool .

A probléma az, hogy ezt a szolgáltatást biztosítani kell hozzáférést biztosít a Google Analytics számláló statisztikáihoz, és máris ráírja a Panda és a Pingvin frissítéseinek pontos dátumait a belőle kiszakított diagramra, hogy megérthesse, pontosan mi nyomorította meg ebből a duettből az erőforrást.

Először azt hittem, hogy legalább két okom van arra, hogy ezt ne tegyem:

  1. Először is, még mindig nincs Analytixem egy éve, mert előtte teljesen elégedett voltam, nos, és az LI számláló is elég informatív.
  2. Másodszor, az Adsense is ugyanazon a dologon lóg, és ez olyan pénz, amelyet nem szabad senkire bízni. De egy kicsit később eszembe jutott, hogy az Analytics, valamint a Metrica képes vendégfiókokat létrehozni, amit megpróbáltam használni.

Általában bejelentkeztem az adminisztrációba a fő Analytics-fiókomban, és átruháztam a statisztikák megtekintésének és elemzésének jogát a másik Google-fiókomra, amelyhez semmi ilyesmi nem kapcsolódik.

Ezt követően a böngészőben, ahol már jogosult voltam ezzel a nem túl fontos fiókkal, követtem a „Bejelentkezés az Analytics szolgáltatásba” linket a Panguin Tool oldaláról, és megkértek, hogy erősítsem meg, hogy az alkalmazást statisztikai adatokkal kívánom ellátni Analitika.

Nem bántam. Ezt követően megkértek, hogy válasszak ki egy konkrét számlálót.

Nos, végül megadták a kívánt ütemtervet a Panda és a Penguin megjelenési dátumaival, de, mint egy kicsit feljebb említettem, nem olyan régen van meg ez a számláló, és nem 2012 elejét örökítette meg.

Ezért annak meghatározásához milyen szűrőt alkalmazott a google a webhelyemre, így nem sikerült. Ezen kívül idén késő tavasszal és kora nyáron általában lefilmeztem az Analytix kódot olyan okokból, amelyek számomra most nem világosak. A Google-tól érkező forgalom csökkenése, amely ugyanazon év tavaszán következett be, úgy tűnik, nincs összefüggésben sem a Pandával, sem a Pingvinnel.

De lehet, hogy neked jobb szerencséd van. A grafikonon és az alábbi táblázatokban a céloldalakra vonatkozó statisztikákat is láthatja kulcsszavakat ahonnan a forgalom jött.

A második módszer annak meghatározására, hogy melyik állatot harapja meg, az indirekt jelek (foglenyomatok) megtekintése. Például úgy gondolják, hogy ha eltalálja egy pingvin, akkor pozíciókat csak egyéni kérésekre pazarolunk el, amelynek a céloldalain rossz bejövő linkek fognak spammelni.

A Panda esetében nagy valószínűséggel általánosságban lecsökken a forgalom, akárcsak Ön, bár vita folyik arról, hogy ez a kifejezés helyes-e. Az én helyzetem ebből a szempontból jobban hasonlít a második lehetőséghez.

Most azonban a kéretlen leveleket megszüntették, de a Google jobb irányába mutató változások csak a Yandex mozgása után kezdődtek. E tekintetben továbbra is tanácstalan vagyok további intézkedéseimet és azok célszerűségét illetően.

Linkek visszautasítása – hogyan jelentheti a Google-nak a webhelyekre mutató rossz linkeket

Ez a "Keresési forgalom" - "Hivatkozások a webhelyére" lapon történik. A fenti lista felett három gomb található, amelyek segítségével feltöltheti a Google-ban található összes hátlapot. Nekem az utolsó opció tetszik a legjobban, mert ott lesz a rendezés a backlinkek megjelenésének dátuma szerint.

Itt azonban csak 1000 olyan domainről adunk meg információkat, amelyekről a legtöbb visszamutató link kerül fel az Ön webhelyére. A különböző háttérelemző szolgáltatások alapján a blogomban háromezer domain linkjei találhatók, és ezek száma összesen több mint harmincezer elérhető a Google-on.

De nem a lényeg. Képzeljük el, hogy átfutottam ezeket az URL-eket, és nagy valószínűséggel azonosítottam azokat az oldalakat vagy akár teljes domaineket, amelyek nem tartoznak a linkprofilomhoz. Most már csak annyit kell tennie, hogy ezt a gazdagságot egyetlen fájlba rendezze txt kiterjesztéssel és bármilyen, az Ön számára kényelmes névvel.

A visszautasító hivatkozások fájljának összeállításakor ezt kell tennie ragaszkodj az egyszerű szabályokhoz:

  1. mindegyik URL-je új oldal vagy domain külön sorban vannak írva: http://plohoysite.ru/plohaystranichka.html
  2. A domain kiadása a következő elv szerint történik: domain:plohoysite.com
  3. Hozzáfűzhetsz megjegyzéseket, de azokat meg kell előzni egy hash-nek (# - hash)

Ha elkészült a lista, lépjen a következőre a Linkek elutasítása oldalra(A Google webmester felületéről nem találtam közvetlen elérési utat, láthatóan félnek, hogy gondolkodás nélkül fogják használni ezt az eszközt):

Válassza ki a listából a kívánt webhelyet, és kattintson a gombra "Linkek elvetése". Figyelmeztetni fogjuk ennek az akciónak a lehetséges negatív következményeire, bár úgy tűnik, még nem láttam ilyen véleményeket a fórumokon, de lehetséges, hogy azoknak, akik ide adták listáikat, már nem volt forgalom a Google-ról, és mint tudod , nem lehet negatív irányba menni .

Egyébként ez a felirat engem személy szerint aggaszt, mert nem szeretném elhamarkodott cselekedetekkel súlyosbítani a helyzetet, és nem javítani a jelenlegi helyzeten. Nos, ha mégis úgy dönt, hogy kísérletezik, akkor a következő oldalon felajánljuk, hogy töltse le az előkészített fájlt a számítógépről a Disavow hivatkozásokkal, és küldje el a Google-nak megfontolásra.

De a kiválasztottakat tedd le egy oszlopba URL-cím vagy tartományok – ez a legegyszerűbb. De a legnehezebb kiszűrni ezeket a nagyon spamet és rossz backlinkeket, hogy később megkérhesd a Google-t, hogy ne vegye figyelembe.

A helyzetet tovább rontja, hogy nincs egyértelmű vélemény ennek az akciónak az előnyeiről, még akkor sem, ha biztosan tudja, hogy webhelye megszenvedte a Pingvint, vagy manuális szankciókat szabtak ki rá. A szakértők véleménye megoszlik. Például Devaka az üzlet kedvéért még minden egyes visszautasítást is hozzáadott a blogjához, de nem látta az eredményt, bár furcsa módon ő hajlamos ennek az eszköznek a hasznosságára.

A kézi szankciók kiszabásakor egyébként a szűrő alól való kibújás helyzete még egyszerűbb, vagy inkább gyorsabb lehet. A manuálisan alkalmazott szűrők mostantól a Google Webmester „Keresési forgalom” lapján láthatók – "Manuálisan megtett intézkedések".

Ebben az esetben már pár héttel a lista Disavow linkekre való feltöltése és revíziós kérelem benyújtása után (ha jól értem, ezt most ugyanazon a lapon lehet megtenni, és nem egy külön trükkös oldalon, mint korábban ), a szűrő eltávolítható, és a pozíciók visszaállnak eredeti értékükre.

Hogyan válasszunk ki rossz linkeket a visszautasítási hivatkozásokhoz

Pingvin esetében a spam linkek sikeres eltávolítására pedig elég sokáig kell várni az eredményre – ennek az algoritmusnak a következő frissítéséig. Eltarthat hónapokig, de akár egy évig is. Továbbra is szeretné kipróbálni a Disavow linkeket? Nos, akkor megosztom veletek azokat a pontokat, amelyeket a lista létrehozásának keresésekor gyűjtöttem.

Ezt nem sikerült manuálisan megcsinálnom, nem a rengeteg monoton munka miatt, hanem mert nincs meg a megfelelő megérzésem kinézetés az összegyűjtött kis statisztikákat, hogy következtetéseket vonhasson le az oldalnak vagy a teljes domainnek a megbízhatatlanok listájához való felvételéről.

Itt egyértelműen automatizálásra van szükség, aminek egyértelműen el kell választania a búzát a pelyvától, és semmi esetre sem "kidobni a babát a vízzel". Nyilvánvalóan szükség van olyan szolgáltatásokra, amelyek amellett, hogy össze tudják gyűjteni a webhelyére vezető linktömeget, minőségi értékelést is képesek végezni az egyes adományozók számára.

Vannak ilyen szolgáltatások, és sok webmester, és még inkább keresőoptimalizáló ismeri őket. A másik dolog az, hogy ezekben a szolgáltatásokban nagyszámú hátlap elemzéséért kell fizetnie, és még csak nem is kevés pénzt. Sőt, ha minden nap professzionálisan használja fel ezeket az erőforrásokat, akkor a pénz bőven megtérül, de a mi feladatunkra pazarló lesz, ahogyan úgy látom.

Volt egy publikáció az oldalon, ahol az egyik nagy SEO cég képviselője megosztotta tapasztalatait a Disavow linklistára való jelöltek kiválasztásával kapcsolatban. Használatát javasolta három link szolgáltatás: burzsoá a Mozból Open Site Explorer néven, valamint a hazai Solomono (Linkpad) és Ahrefs.

Ha jól értem, egy hónapig enni-innom kell ahhoz, hogy kifizessem a több tízezer visszacsatolásom ellenőrzését, és a rajtuk lévő összes adatot feltöltsem további elemzésre és feldolgozásra. Természetesen egy nagy SEO-irodában már megvannak ezek a fizetős csomagok, mert azok mikor térülnek meg teljesen állandó munka több tucat vagy akár több száz ügyfélprojekttel.

De a módszere elég meggyőző. Egy barátom azt javasolja, hogy töltse le a donor minőségi mutatóit az Open Site Explorer, a Solomono és az Ahrefs oldalról. Ezek neve Domain Authority, iGood és Ahrefs Domain Rank.

Ezután foglalja össze az egészet egy táblázatban, és válassza ki a jelölteket a Disavow-hivatkozásokhoz a legalacsonyabb donorminőségi súlyok elve alapján mindhárom szolgáltatásban együtt. Ez csökkenti a hibalehetőséget.

Ilyen luxust sajnos nem sokan engedhetnek meg maguknak, bár ha valaki kiszervezte ezt, akkor mérsékelt díj ellenében nem tagadnám meg a használatát, ugyanakkor nem csak a Disavow linkekre jelöltek listáját szeretném megkapni, hanem az Open Site Explorer, a Solomono és az Ahrefs összes letöltését, hogy győződjön meg a levont következtetések érvényességéről és arról, hogy ne vezessenek az orromnál fogva.

A második lehetőség, amellyel találkoztam, hogy spam jellegű backlinkeket találjak a linkprofilomban, az volt használatban fizetős program FastTrust Alaichtól (híres blogger). Valójában ennek a programnak a promóciós oldalán találkoztam egy leírással, amely szerint a Disavow linkek törlésére jelöltek listája készül.

Minden nagyszerűnek tűnik. Az ára 3000 rubel, ami bár kicsit drága, de elviselhető, főleg, hogy Partner Profit bónuszokért is meg lehet vásárolni, amiből épp megvan a megfelelő összeg.

De! Alaposabban megvizsgáltam, hogy milyen követelmények és kívánatos feltételek mellett ez a program megfelelően fog működni. Kiderült, hogy nem minden olyan egyszerű:

Általában ez lehűtötte a lelkesedésemet, és rájöttem, hogy egy program megvásárlása még mindig fél siker, de továbbra is proxyt kell keresnie, pénzt kell befektetnie az Ahrefsbe, hogy a legrelevánsabb eredményt kapja. Igen, és azt hiszem, elég sok időt vesz igénybe az adatgyűjtés.

Ezért úgy döntöttem, tartok egy kis szünetet, és amíg ki nem száll a fejemből, leírom ebbe a posztba minden jelenlegi gondolatomat a Pingvin és Disavow linkekkel kapcsolatban, hogy később visszatérhessek erre.

Nos, itt, valahol így kb. Mit gondolsz a Google által ktonanovenkogo-ra alkalmazott szűrőről? Panda vagy pingvin? Érdemes a Disavow linkekkel foglalkozni? Ha igen, akkor hogyan lehet elkülöníteni a hülye hátasokat?

Sok szerencsét! Hamarosan találkozunk a blogoldalak oldalán

Lehet, hogy érdekel

Egy webhely eltávolítása a Google Penguin szűrőből - lépésről lépésre útmutató Miért kaphat kitiltást a Yandexben, miért eshet az ACS vagy a lábszűrő alá, valamint hogyan lehet kikerülni ezekből a szankciókból
GoGetLinks – örök linkek a webhely promóciójához és bevételekhez a GoGetLinks tőzsdén webmestereknek
Statisztika keresési lekérdezések Yandex, Google és Rambler, hogyan és miért kell dolgozni a Wordstattal
Seo rövidítések, kifejezések és szakzsargon megfejtése és magyarázata
SEO terminológia, mozaikszavak és zsargon
Online szolgáltatások webmesterek számára - minden, ami a cikkek írásához szükséges, az ő Keresőoptimalizációés sikerének elemzése
A tartalom optimalizálásának módjai és a webhely témájának figyelembevétele a linkek promóciója során a költségek minimalizálása érdekében
Rel Nofollow és Noindex - hogyan lehet blokkolni a webhely külső hivatkozásait a Yandex és a Google indexelésében

Ha hibát észlel, jelöljön ki egy szövegrészt, és nyomja meg a Ctrl + Enter billentyűket
OSSZA MEG: