Finestre.  Virus.  I Quaderni.  Internet.  ufficio.  Utilità.  Autisti

Google Panda è un programma di filtraggio di Google. Il suo compito è monitorare e bloccare i siti con contenuti di bassa qualità.

Altri video sul nostro canale - impara l'internet marketing con SEMANTICA

Il motore di ricerca di Google considera la sua funzione principale quella di fornire agli utenti contenuti pertinenti, interessanti e informazioni utili. Ecco perché combatte duramente contro i metodi di promozione neri, quando il sito entra in cima ai risultati non creando contenuti di alta qualità e richiesti, ma manipolando i motori di ricerca.

La storia di Panda

L'algoritmo di Google Panda è automatico. Il primo passo verso la sua creazione è stata la valutazione un largo numero siti web per soddisfare i requisiti di contenuto di Google. È stato eseguito manualmente da un gruppo di tester e ha permesso di formalizzare i principali fattori che influenzano la qualità dei contenuti del sito.

La prima volta che Google Panda è stato pubblicato nel febbraio 2011, tuttavia, era pienamente operativo ad aprile. Nel solo 2011, l'algoritmo è stato aggiornato 57 volte, e poi altre 5 volte nel 2012. Il prossimo 2013 ha portato Ultimo aggiornamento Panda con il proprio numero - Panda 25, che ha subito piccole modifiche a giugno e luglio dello stesso anno. ultima versione Panda 4.0, rilasciato nel maggio 2014, ha scosso gli aggregatori di notizie e ha colpito giganti come Ebay.

Ad oggi, l'algoritmo viene migliorato quasi continuamente, aggiornato ogni mese per 10 giorni. La società non pubblica le date degli aggiornamenti al fine di rendere il più difficile possibile la manipolazione delle posizioni dei siti in risultati di ricerca.

Requisiti del sito Google Panda

Google Panda è progettato principalmente per combattere i contenuti di bassa qualità, quindi i suoi requisiti principali per i siti si basano sulla qualità delle informazioni pubblicate.

  1. Il sito dovrebbe contenere principalmente contenuti unici, non dovrebbe contenere testi e immagini duplicati.
  2. Non è consentito l'uso di testi generati automaticamente.
  3. I robot dei motori di ricerca e gli utenti dovrebbero vedere la stessa cosa, non è possibile utilizzare pagine che sono visibili solo ai motori di ricerca e servono esclusivamente per promuovere il sito.
  4. Le parole chiave di ogni pagina del sito devono corrispondere al suo contenuto, lo spamming con parole chiave è inaccettabile.
  5. I collegamenti e gli annunci sulle pagine devono corrispondere all'oggetto dei testi e ad altri contenuti della pagina.
  6. È vietato utilizzare porte, collegamenti nascosti o testo nascosto, il cui scopo è ingannare motore di ricerca.

L'algoritmo di Google Panda ti punirà se le pagine del sito contengono contenuti copiati da altre risorse senza riferimento alla fonte, articoli modello che hanno una struttura identica, pagine duplicate. I siti in cui i testi sono un foglio continuo, senza illustrazioni, video o infografiche, con gli stessi meta tag su pagine diverse, possono rientrare nel filtro di Google Panda.

Si ritiene che questo algoritmo non presti molta attenzione ai collegamenti, ma richiede che i collegamenti negli articoli corrispondano necessariamente al loro argomento. Cioè, i testi sulle finestre di plastica non dovrebbero contenere riferimenti alla vendita di tè, ecc.

Oltre a tutto quanto descritto, Google Panda presta molta attenzione ai fattori comportamentali. Se il tuo sito ha un'alta frequenza di rimbalzo, gli utenti lo lasciano dopo la prima pagina e non tornano più, cadrai sicuramente nel campo visivo dell'algoritmo.

Come salvarsi dalle sanzioni di Google Panda

Come identificare l'azione di Panda

Prima di agire per uscire dai filtri di Google Panda, assicurati di aver sofferto per le sue zampe. Come determinare se Google Panda è il colpevole del tuo problema o è qualcos'altro?

Presta attenzione alla connessione tra l'aggiornamento dell'algoritmo e il calo del traffico sul sito. L'aggiornamento di Google Panda si tiene mensilmente, dura 10 giorni, puoi scoprirne l'ora sul sito Moz.com. Se c'è una corrispondenza, è necessario agire.

Il secondo modo per catturare un panda è usare servizio speciale Barracuda. Uno dei servizi di questo sito, Panguin Tool, accedendo alle informazioni del tuo account in Google Analytics, sovrappone al grafico tratto da esso le date degli aggiornamenti dell'algoritmo ed emette una risposta. Questo metodo presenta due svantaggi: non è adatto a coloro che hanno un contatore di Google Analytics di recente e richiede l'accesso a un account che, a sua volta, ti consente di ottenere denaro nel tuo account Google Analytics.

Il terzo metodo è abbastanza semplice, ma richiede tempo e pazienza. Dovrai controllare ogni pagina del sito. Devi farlo in questo modo:

  1. Copia alcune frasi dal testo della pagina nella casella di ricerca di Google. È sufficiente prendere 100-200 caratteri.
  2. Verifica se il tuo sito appare in cima alle SERP.
  3. Concludi lo stesso passaggio in linea di ricerca tra virgolette e di nuovo controlla se il sito è nei risultati di ricerca o meno.

Se il sito appare nel problema solo nel secondo caso, il colpevole dei tuoi problemi è Google Panda. Ricorda che dovrai controllare ogni pagina.

Come uscire dal filtro

Per uscire da sotto il filtro Panda, dovrai fare quanto segue:

  1. Effettua una revisione completa del contenuto del sito e sostituisci la maggior parte dei testi con altri interessanti e utili, e rielabora il resto in modo che diventi unico e pertinente.
  2. Rimuovi le parole chiave in eccesso dalle intestazioni di tutti i livelli e dai meta tag. Cambia i titoli in quelli pertinenti e attraenti, fai in modo che catturino il visitatore e fagli venire voglia di leggere il testo.
  3. Pulisci il sito da pubblicità irrilevante e aggressiva, che migliorerà significativamente i fattori comportamentali.
  4. Rimuovi tutti i duplicati e i collegamenti interrotti, deseleziona le parole chiave.
  5. Controllare i collegamenti sulle pagine per la conformità con il contenuto delle pagine e sostituire o rimuovere quelli non pertinenti.

Questi passaggi ti aiuteranno a uscire dai filtri di Panda nel tempo. Tuttavia, tieni presente che Google Panda è un algoritmo automatico e nessun numero di ricorsi ti aiuterà a liberarti rapidamente dalle sue sanzioni. Riempi il sito con contenuti unici interessanti, non lasciarti trasportare dalla pubblicazione di annunci su di esso e non cadrai per i denti dell'intelligente bestia panda di Google.

Molto tempo fa, in una galassia molto, molto lontana, il motore di ricerca di Google creò un algoritmo chiamato Panda. Solo due persone hanno sviluppato questo algoritmo, questo è Amit Singal insieme a Matt Kats. Questo algoritmo differisce dalle sue controparti in quanto, prima di tutto, è progettato per il fattore umano. L'algoritmo tiene conto anche di altri fattori durante il posizionamento di un sito.

In questo materiale, abbiamo cercato di raccogliere tutto ciò che può riguardare l'algoritmo di Google Panda, come determinarlo e come non caderci sotto per avere successo promuovere il sito.

Di cosa tiene conto l'algoritmo di Google Panda

Il contenuto del sito è unico?

L'algoritmo Panda presta innanzitutto attenzione al fatto che lo stesso contenuto si trovi su altri siti. Inoltre, cerca non solo testi simili su siti o pagine, ma vengono presi in considerazione anche frammenti di testi. In altre parole, l'unicità del testo è determinata utilizzando una percentuale. Diciamo che se l'articolo è stato copiato completamente, l'unicità è pari a zero. Se una parte del testo viene copiata, l'unicità può essere dell'80%, ad esempio.

L'algoritmo calcola l'unicità sia il sito stesso che una pagina separata, anche in relazione ad altre pagine del sito. Inoltre, l'algoritmo panda è dotato di uno strumento come i modelli. In altre parole, può identificare pagine simili su siti diversi, anche se promossi con parole chiave diverse.

Inoltre, questo l'algoritmo presta attenzione anche agli annunci. Se un sito che fornisce servizi legali contiene pubblicità della concorrenza, l'algoritmo risolve questo problema e ne tiene conto durante il posizionamento del sito.

Il compito dei motori di ricerca è dare all'utente una risposta alla sua domanda. Il compito dell'algoritmo Panda è quello di abbattere un po' a terra i proprietari di siti il ​​cui scopo è solo quello di guadagnare denaro. In generale, lo scopo di questo algoritmo è terribilmente semplice. Solo i siti unici, pertinenti e utili dovrebbero apparire nei risultati di ricerca. Ecco un esempio, come creare buoni contenuti educativi.

Numero e qualità dei link (profilo link)

L'algoritmo tiene conto anche dei collegamenti. Inoltre, tiene conto di tutti i collegamenti, sia in entrata che in uscita. C'è solo un requisito ed entrambi i siti devono essere dello stesso tema. Naturalmente, l'algoritmo tiene traccia del numero di collegamenti in entrata e in uscita, ma questo non è il fattore più importante quando si classifica un sito. La prima cosa che gli interessa è il fattore umano. In altre parole, osserva attentamente l'utente sul sito. Cosa fa, quanto tempo trascorre, se legge materiale, se compila moduli e così via. Naturalmente, gli sviluppatori hanno fatto un ottimo lavoro nel creare e testare questo algoritmo. In effetti, questo algoritmo richiedeva la lucidatura e altri algoritmi in modo che il motore di ricerca potesse restituire solo siti di alta qualità.

Con l'introduzione di questo algoritmo durante il posizionamento di un sito, arrivare in cima ai risultati di ricerca possono solo siti veramente utili e di alta qualità. È stato questo algoritmo a creare il motore di ricerca Sistema Google potente strumento di ricerca. Ciò è confermato dal fatto che il pubblico di Google sta crescendo in modo esponenziale. Inoltre, anche il budget dell'azienda sta crescendo a passi da gigante. Dopotutto, è ancora possibile ingannare l'utente utilizzando i cosiddetti metodi di promozione neri. Vari chip e pubblicità aggressiva. Ma l'investitore non può essere ingannato e sa e si rende perfettamente conto che Google è un'attività redditizia.

Naturalmente, tale crescita dell'azienda è merito non solo di un algoritmo. E ora torniamo all'argomento dell'articolo.

Fattori comportamentali

Questo indicatore include una serie di criteri, come:

  • frequenza di rimbalzo;
  • quanto tempo una persona trascorre sul sito in una sessione;
  • quante pagine ha visitato in una visita;
  • se torna sul sito e con quale frequenza;
  • quanto il sito viene mostrato nei risultati di ricerca e quante persone seguono il link (CTR).

L'algoritmo tiene traccia di tutto questo e lo fa per ogni utente. Cioè, segue ogni visitatore e osserva attentamente ciò che fa, se fa clic sui collegamenti, compila moduli, scorre o meno la pagina e così via. Pertanto, l'algoritmo determina se l'utente sta rispondendo alle richieste dal sito o pagina separata e se l'utente trova la risposta alla domanda inserita nella barra di ricerca.

Come capire che il sito è caduto sotto il filtro Panda e cosa fare?

  1. Forte calo del traffico. Se scopri che il numero di clic da Google è diminuito drasticamente, allora uno di cause possibili, potrebbe essere Panda e problemi tecnici siti non identificati:
    — risposta lenta del server;
    — indisponibilità di pagine e altro.
    Per verificarlo, analizzalo attentamente statistiche di Google E Console di ricerca.
  2. Attenzione ai link. Sebbene i link per Google rimangano fattori chiave di ranking, non dovresti concentrarti troppo su di essi, perché il motore di ricerca ha imparato da tempo a distinguere i link naturali da quelli acquistati, nonché a identificare un aumento innaturale della massa dei link.
  3. Testi pessimi. Testi scritti in un linguaggio non umano, con molti errori di ortografia, brevi, non univoci e inseriti sotto forma di una pagina di giornale - uccideranno qualsiasi sito, poiché servono da segnale a Panda per abbassare il sito nei risultati di ricerca.
    Cosa fare? Scrivi contenuti unici e di alta qualità utili agli utenti, controllali attentamente e modificali.
  4. Nessun video o foto. Se non diluisci il contenuto di articoli e pagine del sito con immagini, infografiche e video, l'occhio del lettore semplicemente non ha nulla da catturare e se questo è un male per l'utente, a Panda non piace.
    Aggiungi foto e video più ottimizzati compilando gli attributi alt e titolo.
  5. Pochi link interni. Entrato nel sito, l'utente dovrebbe navigare facilmente e non essere costretto, arrivando esattamente alle pagine che si aspettava di vedere. E qui è molto importante creare un collegamento interno competente, che ti consentirà di accedere a tali pagine. È anche un'ottima soluzione per posizionare i widget con gli ultimi post del blog, gli articoli più popolari e le sezioni più interessanti.

E ricorda: “Meglio non far arrabbiare il Panda!”.

Google panda è un algoritmo sviluppato e lanciato nel 2011 Google, che viene utilizzato per l'analisi qualitativa dei siti nei risultati dei motori di ricerca.

È in grado di trovare ed escludere dalla classifica (o abbassare le posizioni dei documenti) quelle pagine che hanno una grande quantità di contenuti non univoci, non contengono alcuna informazione utile e sono destinate esclusivamente a fare soldi.

Prima di tutto, Google Panda tiene conto di quanto sia orientata all'utente una particolare risorsa, tuttavia, per determinare la qualità di un sito, questo algoritmo utilizza non solo questo criterio, ma anche una serie di altri criteri altrettanto importanti, che devono essere presi in considerazione durante la promozione sui motori di ricerca.

Criteri di valutazione del sito che l'algoritmo di Google Panda prende in considerazione

  • . L'algoritmo Panda tiene conto del tempo che gli utenti trascorrono sul sito, della percentuale di ritorni sul sito, della percentuale di rimbalzi, del numero di ritorni rispetto al numero totale di transizioni, del numero di transizioni all'interno del sito e alcuni altri fattori. Per fornire al sito buone posizioni nei risultati di ricerca, il webmaster deve creare una risorsa attraente per gli utenti, riempirla con articoli unici, collegamenti interni di alta qualità, implementare una navigazione chiara, fornire ricerca rapida le informazioni necessarie e pensare a cos'altro farà rimanere l'utente sul sito il più a lungo possibile.
  • . Anche con l'uso simultaneo di diversi metodi di promozione del sito Web, è necessario prestare particolare attenzione alla qualità dei contenuti pubblicati sulle pagine del sito. L'algoritmo Panda analizza l'unicità delle informazioni presentate sul sito dalla percentuale di contenuto preso in prestito da altre risorse alla quantità totale di contenuto sul sito e su ciascuna pagina separatamente. Devi capire che le informazioni di bassa qualità pubblicate su una sola pagina possono peggiorare la posizione nei risultati di ricerca non solo di questa pagina, ma dell'intera risorsa. Un simile impatto negativo sul sito è esercitato da un numero eccessivo di testi dello stesso tipo a contenuto diverso interrogazioni chiave(alto stereotipo), così come testi con un'alta densità di parole chiave e frasi (grande nausea).
  • collegamento di massa e pubblicità. L'algoritmo di Google Panda determina il grado di pertinenza dell'oggetto degli annunci pubblicati sulla risorsa rispetto all'oggetto

Molti ottimizzatori SEO ne sono consapevoli da tempo Algoritmi di Google come Panda, Penguin e Hummingbird. Qualcuno stesso ne ha sofferto, qualcuno è riuscito a evitare con successo la loro azione.

Ma la maggior parte dei principianti che cercano di promuovere i propri siti nei motori di ricerca fraintendono completamente cosa stanno colpendo esattamente questi algoritmi.

C'è una parte considerevole di webmaster che non li tiene affatto in considerazione durante la creazione di siti. E allo stesso tempo, sebbene l'azione distruttiva di Panda, Penguin e Hummingbird falci molti siti ogni giorno, aggirarli non è così difficile se capisci tutto correttamente e fai tutto bene.

In effetti, i principi con cui operano questi algoritmi non sono così nuovi, è solo che il loro aspetto ha permesso di semplificare notevolmente la lotta di Google contro i siti di bassa qualità (a suo avviso) e di ripulire il problema in modo più efficiente.

Veniamo quindi alla recensione.

Algoritmo di ricerca di Google - Panda

Il primissimo di questa trinità (2011) e, secondo l'opinione dei nuovi arrivati, il più terribile. Fondamentalmente, Algoritmo di ricerca Panda terribile non per i principianti stessi, ma per il loro atteggiamento negligente nei confronti dei siti che creano.

Ovviamente ogni webmaster è il proprietario completo del suo sito web, lo crea come vuole e non c'è nessun ordine per lui da parte di Google. Tuttavia, non dobbiamo dimenticare che Google è il proprietario completo della sua emissione e quali siti vuole, consente loro di essere nella sua emissione e quali non vuole, non lo fa. Per questo, vengono utilizzati Algoritmi di ricerca di Google.

Panda è stato il primissimo strumento di protesta dei motori di ricerca contro errori e negligenze non solo dei principianti, ma anche contro l'atteggiamento sciatto nei confronti dei motori di ricerca (e anche dei propri progetti) da parte di ogni sorta di "autorità". Il fatto è che molti grandi siti, per lo più commerciali - negozi, servizi, directory e simili - consentono la creazione di pagine con contenuti simili.

Fondamentalmente, questa è una descrizione di beni o servizi che sono simili nei parametri di base, ma differiscono solo in alcuni piccoli dettagli, ad esempio:

  • misurare;
  • colore;
  • prezzo, ecc.

Il contenuto principale, quindi, è lo stesso su tali pagine, spesso la somiglianza raggiunge il 90 percento o più. Nel tempo, sul sito si accumula un numero molto elevato di pagine clone. Ovviamente questo non interferisce in alcun modo con i visitatori, ma i risultati dei motori di ricerca sono letteralmente intasati dallo stesso tipo di documenti web.

Prima che fosse introdotto algoritmo del panda, Google ha semplicemente "incollato" tali duplicati, ovvero ha permesso che solo uno di essi comparisse nei risultati di ricerca e ha inserito il resto nella categoria "risultati aggiuntivi". Ma, come si suol dire, per il momento va tutto bene e sono apparsi nuovi algoritmi di ricerca su Google. E arrivò il momento in cui anche i "risultati aggiuntivi" non potevano migliorare il quadro.

L'algoritmo Panda ha lo scopo di trovare e identificare tali pagine Web, determinarne il numero accettabile e agire su progetti in cui il numero di tali pagine è troppo eccessivo.

Non appena l'algoritmo Panda ha iniziato a funzionare a pieno regime, molti siti autorevoli sono seguiti dalle loro "gustose" posizioni ai vertici della questione e, di conseguenza, si sono "immersi" molto nel traffico.

Certo, i proprietari di questi siti, individuate le cause di una tale catastrofe (dopo aver studiato i nuovi algoritmi di Google), hanno cercato di correggere la situazione il più rapidamente possibile, ma non tutti sono tornati nei "luoghi del pane". I loro posti sono stati presi da concorrenti di maggior successo che hanno reagito in tempo algoritmi di ricerca di google, o inizialmente non ha violato affatto le nuove regole.

Algoritmo di Google: Pinguino

Il prossimo algoritmo - Penguin (2012) - è rivolto ad aree completamente diverse e non influisce direttamente sui siti, ma li colpisce solo indirettamente - tramite massa di collegamenti. Molti webmaster e persino ottimizzatori SEO abbastanza esperti, fino a poco tempo fa, erano molto incuranti dei collegamenti che acquisivano ai loro siti dalle risorse web di altre persone. E quando è stato annunciato che il nuovo algoritmo (Penguin) si sarebbe occupato del ranking dei link, la maggior parte dei proprietari di siti "autorevoli" praticamente non ha attribuito alcuna importanza a questo.

Naturalmente, e molto prima della comparsa del Pinguino, era noto che i motori di ricerca hanno un atteggiamento molto negativo nei confronti dei link acquistati e combattono i trasgressori in ogni modo possibile. I webmaster più sani di mente non hanno contattato gli scambi di link e hanno acquisito link, per così dire, in privato, credendo che poiché non possono essere associati agli scambi, non seguirà alcuna punizione.

Tuttavia, non hanno tenuto conto del fatto che molti siti donatori erano essi stessi acquirenti di link e la maggior parte di loro "si è addormentata" quando il Pinguino ha iniziato ad agire attivamente. Naturalmente, tutti i collegamenti che conducevano da questi siti sono scomparsi ei siti "terzi" hanno semplicemente perso una parte significativa della loro massa di collegamenti.

E quando un sito perde parte della sua massa di link, allora, ovviamente, si abbassa nei risultati di ricerca e perde una parte significativa del suo traffico.

Alcuni dei proprietari che non capivano la situazione lo consideravano una punizione per peccati inesistenti. Tuttavia, alla fine si è scoperto che qui non c'era odore di punizione. Sono stati puniti quei siti il ​​cui coinvolgimento nell'acquisto di link è stato provato. E quei siti che, a loro volta, erano collegati ad essi tramite link, semplicemente "erano nel posto sbagliato al momento sbagliato".

Quindi, vediamo che l'algoritmo Hummingbird ha "coperto" un enorme segmento della SERP di Google relativo all'acquisto di link. Questo è il motivo per cui si è rivelato molto più efficace degli scioperi "individuali": ora quasi tutti i siti Internet che ricevono il proprio traffico (e con esso le entrate) dall'emissione di Google, ovvero dipendono da questo motore di ricerca, lo faranno attentamente monitorare la loro massa di collegamenti e cercare di evitare di ottenere collegamenti da siti sui quali vi è almeno il minimo sospetto che acquistino i loro collegamenti sugli scambi.

Qualcuno, ovviamente, maledice Google, accusandolo di gioco disonesto, ma non dobbiamo dimenticare che, in primo luogo, Google non gioca mai in modo disonesto- né la moralità americana né le leggi americane glielo permettono e, in secondo luogo, nessuno ha ancora inventato nulla di più efficace nella lotta contro l'epidemia di link acquistati.

Algoritmo di Google: colibrì

Il terzo algoritmo che ha colpito duramente molti siti è Hummingbird, apparso nel 2013.. Qual è lo scopo di questo algoritmo? Ed è diretto, in primis, contro doorway e siti che utilizzano il cosiddetto key spam per promuovere le proprie pagine.

Molti utenti di Google, durante la ricerca delle informazioni necessarie, inseriscono query "semplificate" o "errate" nella barra di ricerca, ad esempio "compra mutandine dove", "riposo thailandia" o "ristorante novosibirsk", e qualcuno generalmente fa molti errori nelle query.

Ovviamente Google "personalizza" le pagine più pertinenti dei siti a tali query, sulle quali, naturalmente, non si verificano query in una forma così "sbagliata", ma logicamente rispondono in modo più completo.

Sembra che cosa c'è che non va qui? Ma il fatto è che tutte le query inserite nella barra di ricerca vengono memorizzate da Google nel suo database, e questo database viene costantemente utilizzato dai lavoratori della porta e dai produttori di siti "mantello". Di norma, con l'ausilio di mezzi automatizzati, "affilano" le pagine delle loro "opere" per tali richieste "sbagliate", e quindi si tradiscono immediatamente con frattaglie.

Robot di indicizzazione, analisi del contenuto delle pagine del sito, controllo costante con il database delle chiavi di Google e se ci sono troppe frasi "sbagliate" sulle pagine, l'intero sito viene sospettato.

Qualcuno perde persino di vista il fatto che Google presta attenzione anche alla lettera con cui iniziano i nomi propri oi nomi geografici, con la maiuscola o con la minuscola. Bene, se qualcuno scrive un testo e scrive male un nome o un titolo un paio di volte, allora non fa paura. Ma se il nome delle città oi nomi delle persone sull'intero sito sono con una lettera minuscola, allora questo è già un segnale di un sito di qualità non proprio (o per niente).

Il risultato dell'analisi degli algoritmi di Google

Quindi abbiamo considerato i tre più importanti algoritmi di Google, che insieme coprono aree molto importanti della creazione e promozione delle risorse web. Tutti stanno a guardia della causa del miglioramento della qualità dei contenuti web. Certo, ci sono molti artigiani che aggirano con successo tutti questi algoritmi e continuano a riempire i risultati di Google con siti di bassa qualità, ma questo non è più il volume che era prima dell'avvento di Panda, Penguin e Hummingbird.

Ci si può aspettare che questi algoritmi miglioreranno nel tempo, appariranno modifiche più potenti. Pertanto, è meglio mirare immediatamente a un lavoro onesto ed evitare fastidiose sviste, che alla fine possono danneggiare in modo significativo la tua idea web, con la quale conquisterai le vette di Google!

Ciao, cari lettori del sito del blog. In questo post, voglio speculare un po' su ciò che attualmente mi gira per la testa. Fondamentalmente, tutti i pensieri sono occupati dal problema, in base al quale sono riuscito a soddisfare nell'ultimo anno e mezzo. Al link fornito, troverai un articolo in cui descrivo la situazione attuale, compresa la corrispondenza con il supporto tecnico del mirror Runet.

Negli ultimi quattro mesi e mezzo dalla pubblicazione di quella pubblicazione, ho a turno (a partire dai primi post nel 2009) riletto e modificato (rimosso possibile spam con qualsiasi parola, e anche frenato i collegamenti interni a limiti ragionevoli) in 360 di i miei articoli da 411 esistenti in poi questo momento. Diverse dozzine sono state completamente riscritte, gli screenshot sono stati aggiornati in molte dozzine, sono state apportate correzioni, aggiunte, ecc.

In generale, ha fatto tutto il possibile, instancabilmente. Durante questo periodo si è manifestata un'efficienza mostruosa (per 12 ore al giorno ho arato e da 2 a 6 articoli sono riuscito a spud durante questo periodo). I primi risultati positivi sono apparsi in termini di posizioni migliorate e aumento del traffico da Yandex e Google.

Ma ci sono ancora dubbi su quale filtro di Google sono stato seduto per un anno e mezzo: Panda o Penguin. A questo proposito, sorge la domanda se sia necessario preoccuparsi della selezione dei backlink spam e aggiungerli a Rifiuta i link, come si consiglia di fare a tutti coloro che hanno sofferto del Pinguino. E come farlo con 30.000 spalle in Google Webmaster?

Filtri rilassanti di Yandex e Google

Come ho già detto, l'efficienza ora è semplicemente fenomenale e sarebbe fantastico applicarla a qualcos'altro di utile e promettente, perché non ci sono molti articoli rimasti da rielaborare e non puoi trovare spam in essi, tranne forse solo diverso piccole cose correggendo.

Ragazzi, mi scuso subito se continuerò a utilizzare il "traffico" intollerante e non il numero di visitatori di questo o quel motore di ricerca, perché risulta davvero più facile e accessibile (meno parole, ma più significato). Niente di personale, solo affari. Grazie.

Il 25 settembre ho scoperto che stavo ricevendo il traffico da Yandex è da due a tre volte superiore del solito ultimamente.

Nel quadro generale della partecipazione, ciò si rifletteva in qualcosa del genere:

In primo luogo, è stato in qualche modo inaspettato, perché proprio in quel momento mi ero completamente riconciliato con l'attuale deplorevole situazione e ho continuato ad arare senza particolari pretese sul risultato. Inoltre, anche in estate a volte ero pronto a strappare e lanciare a causa dell'impotenza di qualcosa da cambiare in meglio, ma poi ho smesso completamente di contrarsi.

In secondo luogo, non avendo esperienza di uscita dai filtri, non so cosa pensare delle prospettive future. Non tutto il traffico su Yandex è tornato e mi rassicuro che non è diminuito immediatamente, ma per diversi rialzi.

A proposito, puoi passare attraverso il filtro non solo con una tonnellata di link dal GS (all'inizio di questa primavera ho avuto una mostruosa ondata di link in diverse migliaia di back e non sono stato coinvolto in nessuno di essi). Potrebbero provare a giocare sul comportamento, ad es. peggiorare le metriche del comportamento degli utenti sia nei risultati di ricerca che sul sito.

Ad esempio, tutta la stessa primavera, ho ricevuto migliaia di traffico da alcuni siti di barzellette, barzellette e altre sciocchezze, che non erano altro che HS, ed era difficile chiamarli. Cosa fosse non è chiaro. Ad esempio, passando alla lettura della barzelletta successiva, l'utente è arrivato alla mia pagina 404 e non sapeva cosa fare. Ho persino dovuto sottoporre tali visitatori per ridurre almeno leggermente la loro frequenza di rimbalzo.

Penguin aderisce ancora al principio di un aggiornamento generale dell'algoritmo di filtraggio e puoi tracciare chiaramente (se ti confondi) tutti i suoi aggiornamenti. Ora, a proposito, sembra essere il suo prossimo aggiornamento alla versione 2.1, che è confermato dai rami corrispondenti sui forum Seo.

Panda è recentemente diventato effettivamente parte dell'algoritmo generale utilizzato da Google per il posizionamento e molto probabilmente non ci saranno aggiornamenti pronunciati per tutti i siti contemporaneamente. Tuttavia, se torniamo un po 'indietro nella storia, entro la data in cui il traffico ha iniziato a diminuire, possiamo concludere in quale filtro è caduta questa o quella risorsa.

Come determinare sotto quale filtro Google si trova un sito - sotto Panda o sotto Penguin

A proposito, è questo metodo che offre di utilizzare la risorsa online borghese Barracuda, vale a dire il suo prodotto chiamato Strumento Panguin .

Il problema è che questo servizio dovrà fornire accedere alle statistiche del tuo contatore Google Analytics, e sovrapporrà già le date esatte degli aggiornamenti di Panda e Pinguino al grafico strappato da esso per capire cosa esattamente da questo duetto ha paralizzato la tua risorsa.

All'inizio pensavo di avere almeno due ragioni per non farlo:

  1. In primo luogo, non ho ancora Analytix da un anno, perché prima ero completamente soddisfatto, beh, e anche il contatore LI è abbastanza informativo.
  2. In secondo luogo, anche Adsense si basa sulla stessa cosa, e questi sono soldi che non dovrebbero essere affidati a nessuno. Ma poco dopo, mi sono ricordato che Analytics, così come Metrica, ha la capacità di creare account ospite, che ho provato a utilizzare.

In generale, ho effettuato l'accesso all'amministrazione nel mio account Analytics principale e ho delegato i diritti di visualizzazione e analisi delle statistiche all'altro mio account in Google, a cui non è collegato nulla del genere.

Successivamente, nel browser in cui ero già autorizzato con questo account non molto importante, ho seguito il collegamento "Accedi ad Analytics" dalla pagina di Panguin Tool e mi è stato chiesto di confermare il mio desiderio di fornire a questa applicazione dati statistici da Analitica.

Non mi importava. Successivamente, mi è stato chiesto di selezionare un contatore specifico.

Bene, alla fine hanno fornito il programma desiderato con le date di rilascio di Panda e Penguin, ma, come accennato poco sopra, ho questo contatore non molto tempo fa e non ha catturato l'inizio del 2012.

Pertanto, da determinare che tipo di filtro ha applicato google al mio sito, quindi fallito. Inoltre, nella tarda primavera e all'inizio dell'estate di quest'anno, generalmente ho filmato il codice Analytix per motivi che ora non mi sono chiari. Quella diminuzione del traffico da parte di Google, avvenuta nella primavera dello stesso anno, non sembra essere correlata né a Panda né a Penguin.

Ma potresti avere più fortuna. Nel grafico e nelle tabelle sottostanti, puoi anche vedere le statistiche sulle landing page e su parole chiave da cui proveniva il traffico.

Il secondo modo per determinare quale animale ti ha morso è guardare i segni indiretti (impronte dei denti). Ad esempio, si ritiene che quando vieni colpito da un pinguino, tu le posizioni verranno sperperate solo per richieste individuali, le cui pagine di destinazione verranno riempite di spam con collegamenti in entrata errati.

Con Panda, molto probabilmente, ci sarà un cedimento generale del traffico, come se ci fosse stato, anche se si discute sull'opportunità stessa di usare questo termine. La mia situazione a questo proposito è più simile alla seconda opzione.

Tuttavia, ora lo spam è stato eliminato, ma i cambiamenti in meglio in Google sono iniziati solo dopo il movimento in Yandex. A questo proposito, rimango ancora perplesso riguardo alle mie ulteriori azioni e alla loro opportunità.

Rifiuta link: come segnalare a Google collegamenti errati a un sito

Questo viene fatto nella scheda "Traffico di ricerca" - "Collegamenti al tuo sito". Sopra l'elenco sopra, avrai tre pulsanti che ti permetteranno di caricare tutti i dorsi trovati su Google. Mi piace di più l'ultima opzione, perché ci sarà l'ordinamento in base alla data in cui sono comparsi i backlink.

Tuttavia, le informazioni verranno fornite qui solo per 1000 domini da cui viene inserito il maggior numero di backlink sul tuo sito. A giudicare dai vari servizi di analisi di supporto, il mio blog ha collegamenti da tremila domini e il loro numero totale è di oltre trentamila disponibili su Google.

Ma non è il punto. Immaginiamo che io abbia passato in rassegna questi URL e con un alto grado di probabilità abbia identificato quelle pagine o addirittura interi domini che non appartengono al mio profilo link. Ora non resta che organizzare tutta questa ricchezza in un file con l'estensione txt e qualsiasi nome conveniente per te.

Quando si compila un file per i collegamenti Rinnega, sarà necessario attenersi a regole semplici:

  1. URL di ciascuno nuova pagina o dominio sono scritti su una riga separata: http://plohoysite.ru/plohaystranichka.html
  2. Il dominio viene emesso secondo il seguente principio: domain:plohoysite.com
  3. Puoi aggiungere commenti, ma devono essere preceduti da un hash (# - hash)

Una volta che hai la lista pronta, vai a alla pagina dei link Rinnega(Non ho trovato un percorso diretto dall'interfaccia webmaster di Google, a quanto pare hanno paura che useranno questo strumento senza pensarci):

Scegli dall'elenco il sito di cui hai bisogno e fai clic sul pulsante "Ignora link". Sarai avvisato delle possibili conseguenze negative di questa azione, anche se mi sembra di non aver ancora visto tali recensioni sui forum, ma è possibile che coloro che hanno aggiunto qui i loro elenchi non avessero più traffico da Google e, come sai , non è possibile andare in negativo .

A proposito, questa iscrizione mi preoccupa personalmente, perché non vorrei aggravare la situazione con azioni avventate e non migliorare la situazione attuale. Bene, se decidi ancora di sperimentare, nella pagina successiva ti verrà offerto di scaricare il file preparato dal computer con i link Rinnega e inviarlo a Google per considerazione.

Ma metti quelli selezionati in una colonna Indirizzo URL o domini: questo è il più semplice. Ma la cosa più difficile è filtrare proprio questi spam e backlink errati, in modo che in seguito tu possa chiedere a Google di non tenerne conto.

La situazione è ulteriormente aggravata dal fatto che non esiste un'opinione inequivocabile sui vantaggi di questa azione, anche se sai per certo che il tuo sito è stato colpito dal Pinguino o che gli sono state imposte sanzioni manuali. Le opinioni degli esperti sono divise. Ad esempio, Devaka, per motivi di lavoro, ha persino aggiunto ogni singolo collegamento al suo blog per Rinnegare, ma non ha visto il risultato, sebbene sia lui che tende all'utilità di questo strumento, stranamente.

A proposito, quando si impongono sanzioni manuali, la situazione con l'uscita da sotto il filtro può essere ancora più semplice, o meglio più veloce. I filtri applicati manualmente possono ora essere visualizzati in Google Webmaster nella scheda "Traffico di ricerca" - "Misure prese manualmente".

In questo caso, già un paio di settimane dopo aver caricato l'elenco sui collegamenti Rifiuta e aver inviato una domanda di revisione (a quanto ho capito, ora questo può essere fatto nella stessa scheda e non in una pagina complicata separata, come era prima ), il filtro può essere rimosso e le posizioni torneranno ai loro valori originali.

Come selezionare i backlink errati da aggiungere ai link Rinnega

Nel caso di Pinguino e la rimozione riuscita dei collegamenti spam dovrà attendere molto tempo per il risultato, fino al prossimo aggiornamento di questo algoritmo. Potrebbero volerci mesi o potrebbe volerci un anno. Vuoi ancora provare i link Rinnega? Bene, allora condividerò con te i punti che ho raccolto mentre cercavo un modo per creare questo elenco.

Non sono riuscito a farlo manualmente, non per l'enorme mole di lavoro monotono, ma perché non ho il giusto intuito per aspetto e le poche statistiche raccolte, per trarre conclusioni sull'aggiunta di questa pagina o dell'intero dominio all'elenco degli inaffidabili.

Qui chiaramente bisogno di automazione, che dovrebbe separare chiaramente il grano dalla pula e in nessun caso "buttare via il bambino con l'acqua". Ovviamente sono necessari alcuni servizi che, oltre a poter raccogliere tutta la massa di link che portano al tuo sito, siano anche in grado di fare una valutazione di qualità per ciascuno dei donatori.

Esistono tali servizi e molti webmaster, e ancor di più i SEO, li conoscono. Un'altra cosa è che dovrai pagare per l'analisi di un gran numero di dorsi in questi servizi, e nemmeno una piccola somma di denaro. Inoltre, se utilizzi professionalmente tali risorse ogni giorno, i soldi ripagheranno profumatamente, ma per il nostro compito sarà uno spreco, come mi sembra.

C'era una pubblicazione sul sito in cui un rappresentante di una delle principali aziende SEO condivideva la sua esperienza nella selezione dei candidati per l'elenco dei link Rifiuta. Ha suggerito di usare tre servizi di collegamento: borghese di Moz chiamato Open Site Explorer, così come Solomono domestico (Linkpad) e Ahrefs.

A quanto ho capito, ho bisogno di mangiare e bere per un mese per pagare la verifica delle mie diverse decine di migliaia di backlink e caricare tutti i dati su di essi per ulteriori analisi ed elaborazioni. Ovviamente, un grande ufficio SEO ha già tutti questi pacchetti a pagamento, perché si ripagano completamente quando lavoro permanente con dozzine o addirittura centinaia di progetti dei clienti.

Ma il suo metodo è abbastanza convincente. Un amico suggerisce di scaricare gli indicatori di qualità dei donatori da Open Site Explorer, Solomono e Ahrefs. Si chiamano rispettivamente Domain Authority, iGood e Ahrefs Domain Rank.

Quindi riunisci il tutto in un'unica tabella e seleziona i candidati per i link Rifiuta in base al principio del peso minimo della qualità del donatore in tutti e tre questi servizi insieme. Ciò ridurrà la possibilità di errore.

Sfortunatamente, non molte persone possono permettersi un tale lusso, anche se se qualcuno ha esternalizzato questo, quindi non rifiuterei di usarlo a un prezzo moderato, ma allo stesso tempo vorrei ricevere non solo un elenco di candidati per i link Disavow, ma tutti questi download da Open Site Explorer, Solomono e Ahrefs, al fine di assicurarmi della validità delle conclusioni tratte e che non mi conducano per il naso.

La seconda opzione che ho trovato per trovare backlink di spam nel mio profilo di collegamento è stata in uso programma a pagamento FastTrust di Alaich (famoso blogger). In realtà, sul sito promozionale di questo programma, mi sono imbattuto in una descrizione della preparazione di un elenco di candidati per l'eliminazione per i collegamenti Rinnega.

Tutto sembra essere fantastico. Il prezzo è di 3000 rubli, che, sebbene un po' caro, è tollerabile, soprattutto perché può essere acquistato anche per i bonus Partner Profit, di cui ho solo la giusta quantità.

Ma! Ho dato un'occhiata più da vicino ai requisiti e alle condizioni desiderabili in cui questo programma funzionerà correttamente. Si è scoperto che non tutto è così semplice:

In generale, questo ha raffreddato il mio ardore e ho capito che l'acquisto di un programma è ancora metà della battaglia, ma dovrai comunque cercare un proxy, investire denaro in Ahrefs per ottenere il risultato più rilevante. Sì, e penso che ci vorrà molto tempo per raccogliere i dati.

Pertanto, ho deciso di prendermi una pausa e, finché non mi è uscito dalla testa, annotare tutti i miei pensieri attuali sui collegamenti Penguin e Disavow in questo post, in modo da poterci tornare in seguito.

Bene, qui, da qualche parte così, approssimativamente. Cosa ne pensi sul filtro applicato da Google a ktonanovenkogo? È un panda o un pinguino? Vale la pena preoccuparsi dei link Rinnega? Se lo è, allora come isolare gli stupidi dorsi?

Buona fortuna a te! A presto sul sito delle pagine del blog

Potresti essere interessato

Ottenere un sito dal filtro Google Penguin - guida passo passo Perché puoi essere bannato in Yandex, rientrare nell'ACS o in un filtro per i piedi, nonché modi per uscire da queste sanzioni
GoGetLinks: collegamenti eterni per la promozione del sito Web e guadagni sullo scambio GoGetLinks per i webmaster
Statistiche query di ricerca Yandex, Google e Rambler, come e perché lavorare con Wordstat
Decifrare e spiegare abbreviazioni, termini e gergo Seo
Terminologia SEO, acronimi e gergo
Servizi online per i webmaster: tutto ciò di cui hai bisogno per scrivere articoli, loro Ottimizzazione del motore di ricerca e l'analisi del suo successo
Modi per ottimizzare i contenuti e tenere conto del tema del sito durante la promozione dei link per ridurre al minimo i costi
Rel Nofollow e Noindex - come bloccare i collegamenti esterni sul sito dall'indicizzazione da parte di Yandex e Google

Se noti un errore, seleziona una parte di testo e premi Ctrl + Invio
CONDIVIDERE: