Ventanas.  virus  Cuadernos.  Internet.  oficina.  Utilidades.  Conductores

Google Panda es un programa de filtrado de Google. Su tarea es monitorear y bloquear sitios con contenido de baja calidad.

Más videos en nuestro canal: aprenda marketing en Internet con SEMANTICA

El motor de búsqueda de Google considera como función principal brindar a los usuarios información relevante, interesante y información útil. Por eso lucha duramente contra los métodos negros de promoción, cuando el sitio llega al TOP de los resultados no creando contenido de alta calidad y demanda, sino manipulando los motores de búsqueda.

la historia de panda

El algoritmo de Google Panda es automático. El primer paso para su creación fue la evaluación un número grande sitios web para cumplir con los requisitos de contenido de Google. Fue realizado manualmente por un grupo de testers y permitió formalizar los principales factores que afectan la calidad del contenido del sitio.

La primera vez que Google Panda se publicó en febrero de 2011, sin embargo, estuvo en pleno funcionamiento en abril. Solo durante 2011, el algoritmo se actualizó 57 veces y luego 5 veces más en 2012. El próximo 2013 trajo Última actualización Pandas con su propio número: Panda 25, que sufrió cambios menores en junio y julio del mismo año. ultima versión Panda 4.0, lanzado en mayo de 2014, sacudió a los agregadores de noticias y afectó a gigantes como Ebay.

Hasta la fecha, el algoritmo se mejora casi continuamente, actualizándose cada mes durante 10 días. La empresa no publica las fechas de las actualizaciones para dificultar al máximo la manipulación de las posiciones de los sitios en Resultados de la búsqueda.

Requisitos del sitio de Google Panda

Google Panda está diseñado principalmente para combatir el contenido de baja calidad, por lo que sus principales requisitos para los sitios se basan en la calidad de la información publicada.

  1. El sitio debe contener principalmente contenido único, no debe contener textos e imágenes duplicados.
  2. No se permite el uso de textos generados automáticamente.
  3. Los robots de los motores de búsqueda y los usuarios deberían ver lo mismo, no puede usar páginas que son visibles solo para los motores de búsqueda y que se necesitan únicamente para promocionar el sitio.
  4. Las palabras clave de cada página del sitio deben corresponder a su contenido, el spam con palabras clave es inaceptable.
  5. Los enlaces y anuncios en las páginas deben corresponder al tema de los textos y otros contenidos de la página.
  6. Queda prohibido el uso de portales, enlaces ocultos o texto oculto, cuya finalidad sea engañar buscador.

El algoritmo de Google Panda lo castigará si las páginas del sitio contienen contenido copiado de otros recursos sin referencia a la fuente, artículos de plantilla que tienen una estructura idéntica, páginas duplicadas. Los sitios donde los textos son una hoja continua, sin ilustraciones, videos o infografías, con las mismas etiquetas meta en diferentes páginas, pueden caer bajo el filtro de Google Panda.

Se cree que este algoritmo no presta mucha atención a los enlaces, pero requiere que los enlaces en los artículos correspondan necesariamente a su tema. Es decir, los textos sobre ventanas de plástico no deben contener referencias a la venta de té, etc.

Además de todo lo descrito, Google Panda presta mucha atención a los factores de comportamiento. Si su sitio tiene una alta tasa de rebote, los usuarios lo abandonan después de la primera página y nunca regresan, seguramente caerá en el campo de visión del algoritmo.

Cómo salvarse de las sanciones de Google Panda

Cómo identificar la acción de Panda

Antes de tomar medidas para salir de debajo de los filtros de Google Panda, asegúrese de haber sufrido sus patas. ¿Cómo determinar si Google Panda es el culpable de tu problema, o es otra cosa?

Preste atención a la conexión entre la actualización del algoritmo y la caída del tráfico en el sitio. La actualización de Google Panda se realiza mensualmente, tiene una duración de 10 días, puedes averiguar el tiempo de la misma en el sitio web Moz.com. Si hay una coincidencia, entonces se deben tomar medidas.

La segunda forma de atrapar un Panda es usar servicio especial Barracuda. Uno de los servicios de este sitio, Panguin Tool, al acceder a la información de su cuenta en Google Analytics, superpone el gráfico extraído con las fechas de las actualizaciones del algoritmo y emite una respuesta. Este método tiene dos desventajas: no es adecuado para quienes tienen un contador de Google Analytics recientemente y requiere acceso a una cuenta que, a su vez, le permite acceder al dinero en su cuenta de Google Analytics.

El tercer método es bastante simple, pero requiere tiempo y paciencia. Tendrás que revisar cada página del sitio. Tienes que hacerlo así:

  1. Copie algunas oraciones del texto de la página en el cuadro de búsqueda de Google. Es suficiente tomar 100-200 caracteres.
  2. Vea si su sitio aparece en la parte superior de las SERP.
  3. Concluya el mismo pasaje en línea de búsqueda entre comillas y vuelva a mirar para ver si el sitio está en los resultados de búsqueda o no.

Si el sitio aparece en el problema solo en el segundo caso, entonces el culpable de sus problemas es Google Panda. Recuerda que tendrás que revisar cada página.

Cómo salir del filtro

Para salir de debajo del filtro Panda, tendrás que hacer lo siguiente:

  1. Haga una revisión completa del contenido del sitio y reemplace la mayoría de los textos por otros interesantes y útiles, y reelabore el resto para que se vuelvan únicos y relevantes.
  2. Elimine el exceso de palabras clave de los encabezados de todos los niveles y metaetiquetas. Cambia los títulos por otros relevantes y atractivos, haz que atrapen al visitante y que quiera leer el texto.
  3. Limpie el sitio de publicidad irrelevante y agresiva, lo que mejorará significativamente los factores de comportamiento.
  4. Elimine todos los enlaces duplicados y rotos, anule la selección de palabras clave.
  5. Verifique que los enlaces en las páginas cumplan con el contenido de las páginas y reemplace o elimine los irrelevantes.

Estos pasos te ayudarán a salir de los filtros de Panda con el tiempo. Sin embargo, tenga en cuenta: Google Panda es un algoritmo automático, y ninguna cantidad de apelaciones lo ayudará a liberarse rápidamente de sus sanciones. Llene el sitio con contenido único e interesante, no se deje llevar por la colocación de anuncios en él, y no caerá en los dientes de la bestia panda inteligente de Google.

Hace mucho tiempo, en una galaxia muy, muy lejana, el motor de búsqueda de Google creó un algoritmo llamado Panda. Solo dos personas desarrollaron este algoritmo, este es Amit Singal junto con Matt Kats. Este algoritmo se diferencia de sus contrapartes en que, en primer lugar, está diseñado para el factor humano. El algoritmo también tiene en cuenta otros factores al clasificar un sitio.

En este material, tratamos de recopilar todo lo que se puede relacionar con el algoritmo Google Panda, cómo determinarlo y cómo no caer en él para lograr con éxito promocionar el sitio.

Qué tiene en cuenta el algoritmo Google Panda

¿El contenido del sitio es único?

El algoritmo de Panda, en primer lugar, presta atención a si el mismo contenido se encuentra en otros sitios. Además, no solo busca textos similares en sitios o páginas, sino que también se tienen en cuenta fragmentos de textos. En otras palabras, la singularidad del texto se determina mediante un porcentaje. Digamos que si el artículo se copió por completo, entonces la unicidad es igual a cero. Si se copia una parte del texto, la unicidad puede ser del 80 %, por ejemplo.

El algoritmo calcula la unicidad. tanto el sitio en sí como una página separada, incluso en relación con otras páginas del sitio. Además de esto, el algoritmo panda está armado con una herramienta como las plantillas. En otras palabras, puede identificar páginas similares en diferentes sitios, incluso si se promocionan con diferentes palabras clave.

Además, esto el algoritmo también presta atención a los anuncios. Si un sitio que brinda servicios legales contiene anuncios de la competencia, el algoritmo lo corrige y lo tiene en cuenta al clasificar el sitio.

La tarea de los motores de búsqueda es dar al usuario una respuesta a su pregunta. La tarea del algoritmo Panda es derribar un poco a los propietarios de sitios cuyo propósito es solo ganar dinero. En general, el propósito de este algoritmo es terriblemente simple. Solo los sitios únicos, relevantes y útiles deben aparecer en los resultados de búsqueda. Aquí hay un ejemplo, como crear buen contenido educativo.

Número y calidad de enlaces (perfil de enlace)

El algoritmo también tiene en cuenta los enlaces. Además, tiene en cuenta todos los enlaces, tanto entrantes como salientes. Solo hay un requisito, y ambos sitios deben ser del mismo tema. Por supuesto, el algoritmo realiza un seguimiento de la cantidad de enlaces entrantes y salientes, pero este no es el factor más importante al clasificar un sitio. Lo primero que le interesa es el factor humano. En otras palabras, observa atentamente al usuario en el sitio. Qué hace, cuánto tiempo dedica, si lee material, si completa formularios, etc. Por supuesto, los desarrolladores han hecho un gran trabajo al crear y probar este algoritmo. De hecho, este algoritmo requería pulido y otros algoritmos para que el motor de búsqueda pudiera devolver solo sitios de alta calidad.

Con la introducción de este algoritmo al clasificar un sitio, llegar a la parte superior de los resultados de búsqueda solo pueden sitios realmente útiles y de alta calidad. Fue este algoritmo el que hizo que el motor de búsqueda sistema de google potente herramienta de búsqueda. Esto lo confirma el hecho de que la audiencia de Google está creciendo exponencialmente. Además, el presupuesto de la empresa también está creciendo a pasos agigantados. Después de todo, todavía es posible engañar al usuario utilizando los llamados métodos negros de promoción. Varias fichas y publicidad agresiva. Pero el inversor no puede dejarse engañar, y sabe y sabe perfectamente que Google es un negocio rentable.

Por supuesto, tal crecimiento de la empresa es el mérito de no solo un algoritmo. Y ahora volvamos al tema del artículo.

Factores de comportamiento

Este indicador incluye una serie de criterios, tales como:

  • Porcentaje de rebote;
  • cuánto tiempo pasa una persona en el sitio en una sesión;
  • cuántas páginas visitó en una visita;
  • si regresa al sitio y con qué frecuencia;
  • cuánto se muestra el sitio en los resultados de búsqueda y cuántas personas siguen el enlace (CTR).

El algoritmo realiza un seguimiento de todo esto y lo hace para cada usuario. Es decir, sigue a cada visitante y observa cuidadosamente lo que hace, ya sea que haga clic en enlaces, complete formularios, se desplace hacia abajo en la página o no, etc. Así, el algoritmo determina si el usuario está respondiendo a las solicitudes del sitio o página separada y si el usuario encuentra la respuesta a la consulta ingresada en la barra de búsqueda.

¿Cómo entender que el sitio ha caído bajo el filtro Panda y qué hacer?

  1. Una fuerte caída en el tráfico. Si encuentra que la cantidad de clics de Google se ha reducido drásticamente, entonces uno de Posibles Causas, puede ser Panda y problemas técnicos sitios que no fueron identificados:
    — respuesta lenta del servidor;
    — indisponibilidad de páginas y otros.
    Para verificar esto, analice cuidadosamente este Google analitico Y Consola de búsqueda.
  2. Tenga cuidado con los enlaces. Aunque los enlaces para Google siguen siendo factores clave de clasificación, no debe centrarse demasiado en ellos, porque el motor de búsqueda ha aprendido durante mucho tiempo a distinguir los enlaces naturales de los comprados, así como a identificar un aumento no natural en la masa de enlaces.
  3. Malos textos. Los textos escritos en lenguaje no humano, con muchas faltas de ortografía, breves, no únicos y colocados en forma de página de periódico, matarán a cualquier sitio, ya que sirven como señal para que Panda baje el sitio en los resultados de búsqueda.
    ¿Qué hacer? Escriba contenido único y de alta calidad que sea útil para los usuarios, verifíquelo y edítelo cuidadosamente.
  4. Sin video ni foto. Si no diluye el contenido de los artículos y las páginas del sitio con imágenes, infografías y videos, entonces el ojo del lector simplemente no tiene nada que captar, y si esto es malo para el usuario, entonces a Panda no le gusta.
    Agregue más fotos y videos optimizados completando atributos alt y titulo.
  5. Pocos enlaces internos. Una vez que haya ingresado al sitio, el usuario debe navegar fácilmente y no verse obligado a navegar a través de él, mientras llega exactamente a las páginas que esperaba ver. Y aquí es muy importante hacer enlaces internos competentes, que le permitirán ir a dichas páginas. También es una gran solución para colocar widgets con las últimas entradas del blog, los artículos más populares y las secciones más interesantes.

Y recuerda: “¡Mejor no enojar al Panda!”.

Google panda es un algoritmo desarrollado y lanzado en 2011 Google, que se utiliza para el análisis cualitativo de sitios en los resultados del motor de búsqueda.

Es capaz de encontrar y excluir del ranking (o bajar las posiciones de los documentos) aquellas páginas que tienen una gran cantidad de contenido no único, no contienen ninguna información útil y están destinadas únicamente a ganar dinero.

En primer lugar, Google Panda tiene en cuenta qué tan orientado al usuario es un recurso en particular, sin embargo, para determinar la calidad de un sitio, este algoritmo utiliza no solo este criterio, sino también una serie de otros criterios igualmente importantes, que deben tenerse en cuenta. en cuenta a la hora de promocionar los motores de búsqueda.

Criterios de evaluación del sitio que tiene en cuenta el algoritmo panda de Google

  • . El algoritmo de Panda tiene en cuenta el tiempo que los usuarios pasan en el sitio, el porcentaje de devoluciones al sitio, el porcentaje de rebotes, el número de devoluciones en relación con el número total de transiciones, el número de transiciones dentro del sitio y algunos otros factores. Para proporcionar al sitio buenas posiciones en los resultados de búsqueda, el webmaster debe crear un recurso atractivo para los usuarios, llenarlo con artículos únicos, enlaces internos de alta calidad, implementar una navegación clara, proporcionar búsqueda rápida la información necesaria y pensar en qué más hará que el usuario permanezca en el sitio el mayor tiempo posible.
  • . Incluso con el uso simultáneo de diferentes métodos de promoción de sitios web, se debe prestar especial atención a la calidad del contenido publicado en las páginas del sitio. El algoritmo Panda analiza la singularidad de la información presentada en el sitio por el porcentaje de contenido prestado de otros recursos a la cantidad total de contenido en el sitio y en cada página por separado. Debe comprender que la información de baja calidad publicada en una sola página puede empeorar la posición en los resultados de búsqueda no solo de esta página, sino de todo el recurso. Un impacto negativo similar en el sitio lo ejerce un número excesivo de textos del mismo tipo en contenido con diferente consultas clave(alto estereotipo), así como textos con alta densidad de palabras clave y frases (gran náusea).
  • enlace masivo y publicidad. El algoritmo panda de Google determina el grado de relevancia del tema de los anuncios publicados en el recurso para el tema.

Muchos optimizadores de SEO conocen desde hace mucho tiempo este tipo de Algoritmos de Google como Panda, Penguin y Hummingbird. Alguien mismo los sufrió, alguien logró evitar con éxito su acción.

Pero la mayoría de los principiantes que buscan promocionar sus sitios en los motores de búsqueda malinterpretan por completo qué es exactamente lo que están logrando estos algoritmos.

Hay una parte considerable de webmasters que no las tienen en cuenta para nada a la hora de crear sitios. Y al mismo tiempo, aunque la acción destructiva de Panda, Penguin y Hummingbird arrasa con muchos sitios todos los días, sortearlos no es tan difícil si entiendes todo correctamente y haces todo bien.

De hecho, los principios por los que operan estos algoritmos no son tan nuevos, es solo que su aparición hizo posible agilizar significativamente la lucha de Google contra los sitios de baja calidad (en su opinión) y limpiar el problema de manera más eficiente.

Así que vamos a la revisión.

Algoritmo de búsqueda de Google - Panda

La primera de esta trinidad (2011) y, en opinión de los recién llegados, la más terrible. Básicamente, Algoritmo de búsqueda Panda terrible no por los propios principiantes, sino por su actitud descuidada hacia los sitios que crean.

Por supuesto, cada webmaster es el propietario total de su sitio web, lo crea de la manera que quiere y no hay ningún pedido para él de Google. Sin embargo, no debemos olvidar que Google es el dueño completo de su emisión, y qué sitios quiere, les permite estar en su emisión, y cuáles no quiere, no los deja. Para ello se utilizan Algoritmos de búsqueda de Google.

Panda fue el primer instrumento de protesta de los motores de búsqueda contra los errores y la negligencia no solo de los principiantes, sino también contra la actitud descuidada hacia los motores de búsqueda (y también hacia sus propios proyectos) por parte de todo tipo de "autoridades". El hecho es que muchos sitios grandes, en su mayoría comerciales (tiendas, servicios, directorios y similares) permiten la creación de páginas con contenido similar.

Básicamente, esta es una descripción de bienes o servicios que son similares en parámetros básicos, pero difieren solo en algunos pequeños detalles, por ejemplo:

  • tamaño;
  • color;
  • precio, etc

El contenido principal, por lo tanto, es el mismo en tales páginas, a menudo la similitud alcanza el 90 por ciento o más. Con el tiempo, se acumula una gran cantidad de páginas clonadas en el sitio. Por supuesto, esto no interfiere con los visitantes de ninguna manera, pero los resultados del motor de búsqueda están literalmente obstruidos con el mismo tipo de documentos web.

Antes de que se introdujera algoritmo panda, Google simplemente “pegó” dichos duplicados, es decir, permitió que solo uno de ellos apareciera en los resultados de búsqueda y colocó el resto en la categoría de “resultados adicionales”. Pero, como dicen, todo está bien por el momento y han aparecido nuevos algoritmos de búsqueda de Google. Y llegó el momento en que incluso los "resultados adicionales" no pudieron mejorar la imagen.

El algoritmo de Panda tiene como objetivo encontrar e identificar tales páginas web, determinar su número aceptable y tomar medidas en proyectos donde el número de tales páginas es demasiado excesivo.

Tan pronto como el algoritmo de Panda comenzó a operar con toda su fuerza, muchos sitios autorizados lo siguieron desde sus posiciones "sabrosas" en la parte superior del problema y, en consecuencia, "sumergieron" mucho el tráfico.

Por supuesto, los propietarios de estos sitios web, habiendo descubierto las causas de tal catástrofe (habiendo estudiado los nuevos algoritmos de Google), intentaron corregir la situación lo más rápido posible, pero no todos regresaron a los "lugares de pan". Sus lugares fueron ocupados por competidores más exitosos que reaccionaron a tiempo para algoritmos de busqueda de google, o no violó las nuevas reglas en absoluto inicialmente.

Algoritmo de Google: Pingüino

El siguiente algoritmo, Penguin (2012), está dirigido a áreas completamente diferentes y no afecta directamente a los sitios, sino que solo los golpea indirectamente, por enlace masivo.. Muchos webmasters e incluso optimizadores de SEO bastante experimentados, hasta hace poco, eran muy descuidados con los enlaces que adquirían a sus sitios desde los recursos web de otras personas. Y cuando se anunció que el nuevo algoritmo (Penguin) se ocuparía de la clasificación de enlaces, la mayoría de los propietarios de sitios "autorizados" prácticamente no le dieron ninguna importancia.

Eso sí, y mucho antes de la aparición del Pingüino, se sabía que los buscadores tienen una actitud muy negativa hacia los enlaces comprados, y de todas las formas posibles están combatiendo a los infractores. Los webmasters más sensatos no se pusieron en contacto con los intercambios de enlaces y adquirieron enlaces, por así decirlo, en privado, creyendo que, dado que no pueden asociarse con los intercambios, no se producirá ningún castigo.

Sin embargo, no tomaron en cuenta el hecho de que muchos sitios donantes eran compradores de enlaces, y la mayoría de ellos "se durmieron" cuando Penguin comenzó a actuar activamente. Naturalmente, todos los enlaces que conducían desde estos sitios desaparecieron, y los "terceros" sitios simplemente perdieron una parte significativa de su masa de enlaces.

Y cuando un sitio pierde parte de su masa de enlaces, entonces, por supuesto, cae en los resultados de búsqueda y pierde una parte significativa de su tráfico.

Algunos de los propietarios que no entendían la situación consideraron esto como un castigo por pecados inexistentes. Sin embargo, al final resultó que aquí no olía a ningún castigo. Fueron sancionados aquellos sitios cuya participación en la compra de enlaces fuere comprobada. Y aquellos sitios que, a su vez, estaban vinculados a ellos mediante enlaces, simplemente “estaban en el lugar equivocado en el momento equivocado”.

Así, vemos que el algoritmo Hummingbird ha “cubierto” un enorme segmento SERP de Google relacionado con la compra de enlaces. Es por eso que resultó ser mucho más efectivo que las huelgas "precisivas": ahora casi todos los sitios de Internet que reciben su tráfico (y los ingresos junto con él) de la emisión de Google, es decir, dependen de este motor de búsqueda, cuidadosamente controle su masa de enlaces e intente evitar obtener enlaces de sitios sobre los que exista al menos la más mínima sospecha de que compran sus enlaces en intercambios.

Alguien, por supuesto, maldice a Google, acusándolo de juego deshonesto, pero no debemos olvidar que, en primer lugar, Google nunca juega deshonesto- ni la moral estadounidense ni las leyes estadounidenses le permiten hacer esto, y en segundo lugar, nadie ha inventado nada más efectivo en la lucha contra la epidemia de enlaces comprados.

Algoritmo de Google: Colibrí

El tercer algoritmo que afecta mucho a muchos sitios es Hummingbird, que apareció en 2013.. ¿Cuál es el propósito de este algoritmo? Y va dirigido, en primerísimo lugar, contra portales y sitios que utilizan el llamado spam de claves a la hora de promocionar sus páginas.

Muchos usuarios de Google, cuando buscan la información necesaria, ingresan consultas "simplificadas" o "incorrectas" en la barra de búsqueda, por ejemplo, "comprar bragas donde", "descansar tailandia" o "restaurante novosibirsk", y alguien generalmente hace muchos errores en las consultas.

Por supuesto, Google "personaliza" las páginas más relevantes de los sitios para tales consultas, en las que, naturalmente, no se producen consultas en una forma tan "incorrecta", pero lógicamente las responde de manera más completa.

Parece que lo que está mal aquí? Pero el hecho es que todas las consultas ingresadas en la barra de búsqueda son almacenadas por Google en su base de datos, y esta base de datos es utilizada constantemente por los trabajadores de la puerta y los fabricantes de sitios de "encubrimiento". Como regla general, con la ayuda de medios automatizados, "afilan" las páginas de sus "trabajos" para tales solicitudes "incorrectas" y, por lo tanto, se delatan inmediatamente con menudencias.

Los robots de indexación, que analizan el contenido de las páginas del sitio, verifican constantemente la base de datos clave de Google, y si hay demasiadas frases "incorrectas" en las páginas, entonces todo el sitio cae bajo sospecha.

Alguien incluso pierde de vista el hecho de que Google incluso presta atención a con qué letra comienzan los nombres propios o los nombres geográficos: con mayúscula o con minúscula. Bueno, si alguien escribe un texto y escribe mal un nombre o título un par de veces, entonces no da miedo. Pero si el nombre de las ciudades o los nombres de las personas en todo el sitio están con una letra minúscula, entonces esto ya es una señal de que el sitio no es del todo (o nada) de alta calidad.

El resultado del análisis de los algoritmos de Google

Así que hemos considerado Los tres algoritmos de Google más importantes, que juntos cubren áreas muy importantes de creación y promoción de recursos web. Todos ellos velan por la causa de mejorar la calidad de los contenidos web. Por supuesto, hay muchos artesanos que eluden con éxito todos estos algoritmos y continúan llenando los resultados de Google con sitios de baja calidad, pero este ya no es el volumen que era antes de la llegada de Panda, Penguin y Hummingbird.

Se puede esperar que estos algoritmos mejoren con el tiempo, aparecerán modificaciones más poderosas. Por lo tanto, es mejor apuntar de inmediato al trabajo honesto y evitar descuidos molestos, que al final pueden dañar significativamente su creación web, ¡con la que conquistará las cimas de Google!

Hola, queridos lectores del sitio del blog. En este post quiero especular un poco sobre lo que actualmente da vueltas en mi cabeza. Básicamente, todos los pensamientos están ocupados con el problema, bajo el cual logré complacer durante el último año y medio. En el enlace provisto, encontrará un artículo donde describo la situación actual, incluida la correspondencia con el soporte técnico del espejo Runet.

Durante los últimos cuatro meses y medio desde la publicación de esa publicación, me turné (a partir de las primeras publicaciones en 2009) corrigí y edité (eliminé el posible spam con cualquier palabra y también restringí los enlaces internos a límites sensatos) en 360 de mis artículos de 411 existentes en este momento. Varias docenas de ellos se han reescrito por completo, se han actualizado capturas de pantalla en muchas docenas, se han realizado correcciones, adiciones, etc.

En general, hizo todo lo que pudo, incansablemente. Durante este tiempo, se manifestó una eficiencia monstruosa (durante 12 horas al día aré y de 2 a 6 artículos lograron brotar durante este tiempo). Los primeros resultados positivos aparecieron en términos de posiciones mejoradas y aumento del tráfico de Yandex y Google.

Pero todavía hay dudas sobre qué filtro de Google he estado sentado durante un año y medio: Panda o Penguin. En este sentido, surge la pregunta de si es necesario molestarse con la selección de backlinks de spam y agregarlos a Desautorizar enlaces, como se aconseja hacer a todos los que sufrieron el Pingüino. ¿Y cómo hacerlo con 30.000 espaldas en Google Webmaster?

Filtros relajantes de Yandex y Google

Como ya mencioné, la eficiencia ahora es simplemente fenomenal y sería genial aplicarla a otra cosa útil y prometedora, porque no quedan muchos artículos para reelaborar, y no puedes encontrar spam en ellos, excepto tal vez simplemente diferente. corrigiendo pequeñas cosas.

Chicos, me disculpo de inmediato porque seguiré usando el "tráfico" intolerante, y no la cantidad de visitantes de tal o cual motor de búsqueda, porque realmente resulta más fácil y accesible (menos palabras, pero más significado). Nada personal, solo negocios. Gracias.

El 25 de septiembre descubrí que estaba recibiendo el tráfico de Yandex es dos o tres veces más de lo habitual últimamente.

En el panorama general de la asistencia, esto se reflejó en algo como esto:

En primer lugar, fue algo inesperado, porque justo en ese momento me había reconciliado por completo con la deplorable situación actual y simplemente continué arando sin ningún reclamo particular sobre el resultado. Además, incluso en el verano, a veces estaba listo para rasgar y tirar debido a la impotencia de algo para cambiar para mejor, pero luego dejé de temblar por completo.

En segundo lugar, al no tener experiencia en salir de los filtros, no sé qué pensar sobre las perspectivas futuras. No todo el tráfico en Yandex regresó, y me aseguro que no cayó de inmediato, sino en varios aumentos.

Por cierto, puede pasar por el filtro no solo con una tonelada de enlaces del GS (a principios de esta primavera tuve una monstruosa oleada de enlaces en varios miles de respaldos y no participé en ninguno de ellos). Pueden tratar de jugar con el comportamiento, es decir, empeorar las métricas tanto del comportamiento del usuario en los resultados de búsqueda como en el sitio.

Por ejemplo, toda la misma primavera, recibí miles de tráfico de algunos sitios de chistes, chistes y otras tonterías, que no eran más que HS, y era difícil llamarlos. Lo que era no está claro. Por ejemplo, al pasar a leer el siguiente chiste, el usuario llegó a mi página 404 y no sabía qué hacer. Incluso tuve que dejar de visitar a esos visitantes para reducir al menos ligeramente su tasa de rebote.

Penguin aún se adhiere al principio de una actualización general del algoritmo de filtrado y puede rastrear claramente (si se confunde con esto) todas sus actualizaciones. Ahora, por cierto, parece ser su próxima actualización a la versión 2.1, lo cual está confirmado por las sucursales correspondientes en los foros de Seo.

Panda se ha convertido recientemente en parte del algoritmo general que usa Google al clasificar, y lo más probable es que no haya actualizaciones pronunciadas para todos los sitios a la vez. Sin embargo, si retrocedemos un poco en la historia, entonces, en la fecha en que el tráfico comenzó a caer, podemos concluir en qué filtro cayó este o aquel recurso.

Cómo determinar en qué filtro de Google se encuentra un sitio: en Panda o en Penguin

Por cierto, es este método el que ofrece utilizar el recurso en línea burgués Barracuda, es decir, su producto llamado PanguinHerramienta .

El problema es que este servicio tendrá que proporcionar acceso a las estadísticas de su contador de Google Analytics, y ya superpondrá las fechas exactas de las actualizaciones de Panda y Penguin en el gráfico arrancado de él para comprender qué es exactamente lo que paralizó su recurso de este dúo.

Al principio pensé que tenía al menos dos razones para no hacer esto:

  1. En primer lugar, todavía no tengo Analytix durante un año, porque antes estaba completamente satisfecho, bueno, y el contador LI también es bastante informativo.
  2. En segundo lugar, Adsense también depende de lo mismo, y este es un dinero que no se debe confiar a nadie. Pero un poco más tarde, recordé que Analytics, al igual que Metrica, tiene la capacidad de crear cuentas de invitados, que traté de usar.

En general, inicié sesión en la administración en mi cuenta principal de Analytics y delegué los derechos para ver y analizar estadísticas en mi otra cuenta en Google, a la que no se adjunta nada de eso.

Después de eso, en el navegador donde ya estaba autorizado bajo esta cuenta no muy importante, seguí el enlace "Iniciar sesión en Analytics" de la página de la herramienta Panguin y se me pidió que confirmara mi deseo de proporcionar esta aplicación con datos estadísticos de Analítica.

no me importó Después de eso, se me pidió que seleccionara un contador específico.

Bueno, al final proporcionaron el horario deseado. con fechas de lanzamiento de Panda y Penguin, pero, como se mencionó un poco más arriba, tengo este contador no hace mucho tiempo y no capturó el comienzo de 2012.

Por lo tanto, para determinar ¿Qué tipo de filtro aplicó Google? a mi sitio, por lo tanto falló. Además, a fines de la primavera y principios del verano de este año, generalmente filmé el código de Analytix por razones que ahora no tengo claras. Esa disminución del tráfico de Google, que tuvo lugar en la primavera del mismo año, no parece estar correlacionada ni con Panda ni con Penguin.

Pero puede que tengas mejor suerte. En el gráfico y en las tablas a continuación, también puede ver estadísticas sobre las páginas de destino y sobre palabras clave de donde procedía el tráfico.

La segunda forma de determinar qué animal te mordió es mirar las señales indirectas (huellas de dientes). Por ejemplo, se cree que cuando te golpea un pingüino, las posiciones se desperdiciarán solo para solicitudes individuales, cuyas páginas de destino recibirán spam con enlaces entrantes incorrectos.

Con Panda, lo más probable es que haya una disminución general del tráfico, como si la hubiera, aunque existe un debate sobre la idoneidad del uso de este término. Mi situación en este sentido es más parecida a la segunda opción.

Sin embargo, ahora el spam ha sido eliminado, pero los cambios para mejorar en Google comenzaron solo después del movimiento en Yandex. En este sentido, sigo estando perdido acerca de mis futuras acciones y su conveniencia.

Desautorizar enlaces: cómo informar a Google de enlaces incorrectos a un sitio

Esto se hace en la pestaña "Tráfico de búsqueda" - "Enlaces a su sitio". Encima de la lista anterior, tendrá tres botones que le permitirán cargar todos los respaldos que se encuentran en Google. Me gusta más la última opción, porque habrá una clasificación por la fecha en que aparecieron los vínculos de retroceso.

Sin embargo, la información se proporcionará aquí solo para 1000 dominios desde los cuales se colocan la mayoría de los vínculos de retroceso en su sitio. A juzgar por varios servicios de análisis de respaldo, mi blog tiene enlaces de tres mil dominios y su número total es más de treinta mil disponibles en Google.

Pero no el punto. Imaginemos que revisé estas URL y con un alto grado de probabilidad identifiqué esas páginas o incluso dominios completos que no pertenecen a mi perfil de enlace. Ahora solo queda organizar toda esta riqueza en un archivo con la extensión txt y cualquier nombre que sea conveniente para usted.

Al compilar un archivo para enlaces de desautorización, deberá adherirse a reglas simples:

  1. URL de cada nueva pagina o dominio están escritos en una línea separada: http://plohoysite.ru/plohaystranichka.html
  2. El dominio se emite de acuerdo con el siguiente principio: dominio:plohoysite.com
  3. Puede agregar comentarios, pero deben estar precedidos por un hash (# - hash)

Una vez que tengas la lista lista, ve a a la página de enlaces de desautorización(No encontré una ruta directa desde la interfaz de webmaster de Google, aparentemente tienen miedo de usar esta herramienta sin pensarlo):

Elija de la lista el sitio que necesita y haga clic en el botón "Descartar enlaces". Se le advertirá sobre las posibles consecuencias negativas de esta acción, aunque parece que aún no he visto tales críticas en los foros, pero es posible que aquellos que agregaron sus listas aquí ya no tenían tráfico de Google y, como saben. , no es posible ir negativo .

Por cierto, esta inscripción personalmente me preocupa, porque no quisiera agravar la situación con acciones precipitadas y no mejorar la situación actual. Bueno, si aún decide experimentar, en la página siguiente se le ofrecerá descargar el archivo preparado de la computadora con enlaces de desautorización y enviarlo a Google para su consideración.

Pero pon los seleccionados en una columna. dirección URL o dominios - este es el más simple. Pero lo más difícil es filtrar estos mismos spam y malos backlinks, para luego pedirle a Google que no los tenga en cuenta.

La situación se agrava aún más por el hecho de que no existe una opinión inequívoca sobre los beneficios de esta acción, incluso si sabe con certeza que su sitio sufrió el Penguin o se le impusieron sanciones manuales. Las opiniones de los expertos están divididas. Por ejemplo, Devaka, por el bien de los negocios, incluso agregó todos los enlaces de desautorización de su blog, pero no vio el resultado, aunque es él quien tiende a la utilidad de esta herramienta, por extraño que parezca.

Por cierto, cuando se imponen sanciones manuales, la situación de salir de debajo del filtro puede ser aún más simple, o más bien más rápida. Los filtros aplicados manualmente ahora se pueden ver en Google Webmaster en la pestaña "Tráfico de búsqueda" - "Medidas tomadas manualmente".

En este caso, ya un par de semanas después de cargar la lista en Desautorizar enlaces y enviar una solicitud de revisión (según tengo entendido, ahora esto se puede hacer en la misma pestaña, y no en una página complicada separada, como era antes ), el filtro se puede eliminar y las posiciones volverán a sus valores originales.

Cómo seleccionar backlinks malos para agregar a los enlaces de desautorización

En el caso del pingüino y la eliminación exitosa de los enlaces de spam tendrá que esperar bastante tiempo para obtener el resultado, hasta la próxima actualización de este algoritmo. Puede tomar meses, o puede tomar un año. ¿Aún quieres probar los enlaces de desautorización? Bueno, luego compartiré con ustedes los puntos que obtuve mientras buscaba una manera de crear esta lista.

No logré hacer esto manualmente, no por la gran cantidad de trabajo monótono, sino porque no tengo la intuición adecuada para apariencia y las pequeñas estadísticas que se recogen, para sacar conclusiones sobre añadir esta página o todo el dominio a la lista de no fiables.

Aquí claramente necesita automatización, que debe separar claramente el trigo de la paja y en ningún caso "tirar al bebé con el agua". Obviamente, se necesitan algunos servicios que, además de poder recopilar toda la masa de enlaces que conducen a su sitio, también puedan realizar una evaluación de calidad para cada uno de los donantes.

Existen tales servicios, y muchos webmasters, y más aún SEO, los conocen. Otra cosa es que tendrás que pagar por el análisis de un gran número de espaldas en estos servicios, y ni siquiera una pequeña cantidad de dinero. Además, si usa profesionalmente dichos recursos todos los días, entonces el dinero valdrá la pena, pero para nuestra tarea será un desperdicio, como me parece.

Hubo una publicación en el sitio donde un representante de una de las principales empresas de SEO compartió su experiencia en la selección de candidatos para la lista de enlaces de desautorización. Sugirió usar tres servicios de enlace: burgués de Moz llamado Open Site Explorer, así como doméstico Solomono (Linkpad) y Ahrefs.

Según tengo entendido, necesito comer y beber durante un mes para pagar la verificación de mis varias decenas de miles de backlinks y cargar todos los datos sobre ellos para su posterior análisis y procesamiento. Por supuesto, una gran oficina de SEO ya tiene todos estos paquetes pagos, porque se amortizan por completo cuando trabajo permanente con docenas o incluso cientos de proyectos de clientes.

Pero su método es bastante convincente. Un amigo sugiere descargar indicadores de calidad de donantes de Open Site Explorer, Solomono y Ahrefs. Se denominan Domain Authority, iGood y Ahrefs Domain Rank, respectivamente.

Luego, reúna todo en una sola tabla y seleccione candidatos para los enlaces de desautorización según el principio de los pesos mínimos de calidad del donante en estos tres servicios juntos. Esto reducirá la posibilidad de error.

Desgraciadamente, no mucha gente puede permitirse ese lujo, aunque si alguien subcontrató esto, entonces no me negaría a usarlo por una tarifa moderada, pero al mismo tiempo me gustaría recibir no solo una lista de candidatos para los enlaces de Disavow, sino todas estas descargas de Open Site Explorer, Solomono y Ahrefs, para poder asegurarme de la validez de las conclusiones extraídas y que no me tomen por las narices.

La segunda opción que encontré para encontrar backlinks de spam en mi perfil de enlace fue en uso programa pagado FastTrust de Alaich (famoso blogger). De hecho, en el sitio de promoción de este programa, encontré una descripción de la preparación de una lista de candidatos para la eliminación de enlaces de desautorización.

Todo parece estar genial. El precio es de 3000 rublos, que, aunque un poco caro, es tolerable, especialmente porque también se puede comprar para los bonos de ganancias de socios, de los cuales solo tengo la cantidad correcta.

¡Pero! Eché un vistazo más de cerca a los requisitos y condiciones deseables bajo las cuales este programa funcionará correctamente. Resultó que no todo es tan simple:

En general, esto enfrió mi ardor y me di cuenta de que comprar un programa aún es la mitad de la batalla, pero aún deberá buscar un proxy, invertir dinero en Ahrefs para obtener el resultado más relevante. Sí, y creo que llevará bastante tiempo recopilar datos.

Por lo tanto, decidí tomarme un descanso y, hasta que se me fue de la cabeza, escribir todos mis pensamientos actuales sobre los enlaces Penguin y Disavow en esta publicación, para poder volver a esto más tarde.

Bueno, aquí, en algún lugar como este, aproximadamente. Qué opinas sobre el filtro aplicado por Google a ktonanovenkogo? ¿Es un panda o un pingüino? ¿Vale la pena molestarse con los enlaces de desautorización? Si es así, ¿cómo aislar las estúpidas espaldas?

¡Buena suerte para ti! Nos vemos pronto en el sitio de las páginas del blog.

te puede interesar

Sacar un sitio del filtro Google Penguin - guía paso por paso Por qué puede ser prohibido en Yandex, caer bajo el ACS o un filtro de pie, así como formas de salir de estas sanciones
GoGetLinks: enlaces eternos para la promoción de sitios web y ganancias en el intercambio de GoGetLinks para webmasters
Estadísticas consultas de búsqueda Yandex, Google y Rambler, cómo y por qué trabajar con Wordstat
Descifrar y explicar abreviaturas, términos y jerga SEO
Terminología SEO, acrónimos y jerga
Servicios en línea para webmasters: todo lo que necesita para escribir artículos, sus optimización de motores de búsqueda y análisis de su éxito
Formas de optimizar el contenido y tener en cuenta el tema del sitio durante la promoción de enlaces para minimizar los costos
Rel Nofollow y Noindex: cómo bloquear enlaces externos en el sitio para que no sean indexados por Yandex y Google

Si nota un error, seleccione un fragmento de texto y presione Ctrl + Enter
COMPARTIR: