Okna.  Wirusy.  Laptopy.  Internet.  Biuro.  Narzędzia.  Kierowcy

Strony o tych samych adresach to częsty problem techniczny, który może poważnie negatywnie wpłynąć na wyniki wyszukiwania Twojej witryny w wyszukiwarkach.

Co to są zduplikowane strony?

Powodów pojawiania się duplikatów na stronie może być kilka: jeśli strona posiada kilka podstron, obecność komentarzy (szczególnie jeśli jest dla nich włączona funkcja paginacji lub widok drzewa), załączone zdjęcia, obecność kalendarza w pasek boczny itp.

Jak usunąć duplikaty?

Najprostszym i najbardziej uniwersalnym sposobem jest użycie wtyczek, które poprawnie i bezboleśnie rozwiązują ten problem.

Usuwanie zduplikowanych stron w komentarzach

Obecność „ Odpowiedź” w bloku komentarzy generuje najbardziej niefortunny typ duplikatów – Reptocom. Na przykład, jeśli w jednym artykule klikną „ Odpowiedź” i zostaw swój komentarz, wtedy na stronie pojawi się 50 duplikatów tego artykułu. Aby zabezpieczyć swoją witrynę przed taką katastrofą, musisz udać się do panelu administracyjnego Ustawienia -> Dyskusja i odznacz pola obok elementów Zezwalaj na szczegółowe komentarze w postaci drzewa (zagnieżdżone). I Podziel komentarze najwyższego poziomu na strony według.

Korzystanie z wtyczki Yoast SEO

Po zainstalowaniu i aktywowaniu wtyczki Yoast SEO w panelu administracyjnym należy przejść dalej SEO -> Możliwości, w sekcji Dodatkowe ustawienia stronę przeciągnij suwak do stanu Dołączony i naciśnij przycisk Zapisz zmiany. W twoim dziale SEO pojawią się nowe podmenu, z których należy dokonać wyboru Zaawansowane -> Łącza bezpośrednie. Na tej zakładce należy ustawić suwaki w pozycjach zgodnie z poniższym rysunkiem:

Aby zmiany zaczęły obowiązywać, kliknij przycisk Zapisz zmiany.

Jeśli korzystasz z wtyczki to aby usunąć zduplikowane strony musisz przejść do panelu administracyjnego Wyczyść -> Podstawowe -> Zduplikowane strony i zaznacz wszystkie pozycje menu w tym oknie.

Cześć wszystkim! Któregoś dnia odkryłem błąd w WordPressie, który tworzy niezliczoną ilość zduplikowanych stron. Problem dotyczy wszystkich posiadających strony internetowe na tym CMS-ie. Tak, tak, ulubiony silnik wielu osób może stworzyć dużą liczbę identycznych dokumentów.

Przestraszony? Nie martw się =) . Błąd jest rzeczywiście poważny, ale można go naprawić w prosty sposób. Poniżej opowiem co to za bestia i jak się jej pozbyć.

I tak, kiedy wszedłem w statystyki bloga, przeżyłem niemiły szok – setki duplikatów nieistniejących dokumentów.

Okazuje się, że jeśli dodasz jakieś liczby do dowolnego wpisu na blogu, WordPress utworzy taką stronę – będzie ona identyczna z postem głównym. Błąd z nawigacją strony poszczególnych postów - setki lub tysiące możliwych duplikatów.

Na takich stronach nie ma metatagu robots i jest kanoniczny, który wskazuje duplikat jako dokument kanoniczny.

Sprawdź, czy robisz to samo?

Sytuację pogarsza połączenie z wtyczką All in one SEO pack, która dodatkowo udostępnia link do poprzedniego wpisu: robot wyszukiwania nie tylko przechodzi na w zasadzie nieistniejącą stronę, ale zaczyna odwiedzać inne podobne. Dodano i usunięto setki podobnych „postów”.

Zacząłem kopać głębiej i założyłem temat na wordpress.org. Okazało się, że już w 2014 roku występował błąd podczas tworzenia wielostronicowych postów za pomocą tagu. Tworzono wówczas także dokumenty nieistniejące, ale kanoniczne dla strony 2., 3. lub kolejnych, wręcz przeciwnie, zawsze wskazywały na pierwszą, czyli nie były indeksowane.

Począwszy od WordPress 4.4, usunięto błąd związany z kanonicznym (każda „stronicowana” strona z postami ma teraz swój własny kanoniczny), ale błąd związany z tworzeniem nieistniejących dokumentów nie został usunięty. Dlatego indeksowanych jest teraz więcej niż to konieczne.

Co zrobić i jak usunąć duplikaty?

Na początek chcę powiedzieć, że spróbują naprawić ten błąd w jednej z kolejnych wersji WordPressa.

W międzyczasie będziemy musieli go usunąć za pomocą tzw. „kul”. Dostępne są 2 opcje.

1) Wtyczka po naprawieniu ostatniej strony od Jurija Belotitsky'ego. Możesz go pobrać. Instalacja jednym kliknięciem, bez ustawień. Skrypt wyświetla błąd 404 zamiast tworzyć wiele duplikatów dokumentów. Moim zdaniem najbardziej udana opcja. Wady:

  • wtyczka dodaje podwójną wartość rel="canonical";
  • i krótki link.

2) Dodatkowa konfiguracja Wszystko w jednym pakiecie SEO. Twórcy tej wtyczki najprawdopodobniej byli świadomi tego błędu i w nowych wersjach pojawiły się dodatkowe pola wyboru.

Zostaną utworzone nieistniejące wpisy, ale będą one zawierać metatag robots, który zabrania ich indeksowania.

Nie przyglądałem się innym wtyczkom SEO dla WordPressa. Yoast SEO lub podobny będzie prawdopodobnie miał te same ustawienia. UPD. Tak, rzeczywiście, wtyczka Yoast konfiguruje kanoniczny dla głównego postu.

To wszystko! Błąd jest dość poważny, ale można go naprawić, można powiedzieć, jednym kliknięciem. Wystarczy, że sprawdzisz, czy podobne strony nie są tworzone dla Ciebie. Jeśli tak, wybierz jedną z opcji rozwiązania problemu.

Okazuje się, że aktualizując WordPressa do nowej wersji, nie tylko eliminujesz stare błędy CMS-a, ale możesz także zyskać nowe. Ciekawi mnie jaką masz wersję silnika i czy powstają takie nieistniejące posty? Podziel się swoimi statystykami w komentarzach.

Pozbądźmy się zduplikowanych stron!

Istnieją dwa sposoby pozbycia się duplikatów WordPress

Pozbądź się duplikatów w osobnym szablonie
1. Pozbywamy się kotwicy „więcej” dodając funkcję do szablonu strony.
Aby to zrobić, przejdź do katalogu głównego witryny

2. Pozbywamy się kotwicy „więcej”. poprzez dodanie funkcji - w WordPress(ta metoda jest dobra, ponieważ ta funkcja działa niezależnie od tego, jaki szablon jest używany na stronie)
Poprzez plik post-template.php

$wyjście .= ' link\»>$more_link_text»;
Zamień tę linię na
$wyjście .= ' link\»>$more_link_text»;

To właściwie cała praca, aby pozbyć się zduplikowanych stron (ogłoszenia, zduplikowane treści). Ale jest też inny rodzaj dubbingu: wersje robocze, kopie stron, które powstają za każdym razem, gdy edytujesz posty, kopie stron z komentarzami. Wszystko to i wiele więcej, wszystkie zduplikowane strony wiszą jak ciężar na witrynie - należy zrzucić ten balast!

Istnieje czystsza wtyczka! Wtyczka „WP-Optimize”
Zainstaluj go na swoim blogu. Nie wymaga żadnych ustawień i jest łatwy w użyciu.

Wtyczka usunie wszelkie śmieci z bloga, gdy tylko jej to poinstruujesz. Jest bardzo dobrym sprzątaczem! Kiedy usunie wszystkie „blokady” z tabel i baz danych, strona od razu stanie się bardziej wesoła. Ten optymalizator usuwa wszystkie nagromadzone śmieci jednym kliknięciem. W otwartym oknie wtyczki umieść znaczniki wyboru i kliknij przycisk „Wyczyść”.

Wtyczka zajmuje tylko kilka sekund, aby usunąć zduplikowane strony. Następnie w lewym górnym rogu pojawi się zapis, ile i co zostało usunięte w jednej akcji.

Sprzątanie lokalu jest konieczne, nikt z tym nie dyskutuje. Konieczne jest również okresowe czyszczenie witryn internetowych. Pozbycie się duplikatów i oczyszczenie obszaru ze śmieci to w zasadzie to samo.

P.S. Podziel się ze mną na głos swoimi przemyśleniami i zostaw komentarz! Wydaje mi się, że jeśli teraz problem „dodatkowego balastu” dla terenu nie jest dotkliwy, to jest to tylko chwilowe. Przychodzi taki moment, że serwer zostaje przeciążony i strona zaczyna działać wolno, a ładowanie strony staje się coraz wolniejsze. Pewnego dnia, nie najwspanialszego, otrzymasz powiadomienie od swojego dostawcy usług hostingowych, że limit bazy danych został osiągnięty i musisz rozszerzyć swój DNS i zmienić taryfy. Ty i ja wiemy, że jest inny sposób - witrynę można zoptymalizować i ułatwić.

  1. Aby to zrobić, musisz przede wszystkim pozbyć się zduplikowanych stron i zduplikowanych treści.
  2. A po drugie zoptymalizuj witrynę buforując jej zawartość - pliki tekstowe i graficzne.

Maja Sławska

Moc? No to zdobądź kolejnego! Nie mniej potężny. Znalazłeś kilka duplikatów Reptocom, to dobrze!

Dziś znajdziesz mnóstwo innych duplikatów, które również zabijają, zatruwają Twojego bloga, a te duplikaty mnożą się coraz szybciej z każdym dniem...

W ogóle! To, co teraz opowiem Wam w tym artykule, to żetony zabrane z kursu i teoretycznie nie chciałem pisać tego artykułu, wystawiając go na widok publiczny. Jak to mówią, nie chciałem zaśmiecać tematu. ALE! Po namyśle doszedłem do wniosku, że trzeba to po prostu zrobić.

Dlaczego? Ale ponieważ po artykule o duplikatach Reptocom zauważyłem, że wiele osób zaczęło głupio kopiować mój plik robots.txt i myśleć, że teraz wszystko będzie dla nich idealne. Po prostu nie mogę na to tak patrzeć, więc muszę wykorzystać ten artykuł, aby uratować tych dupków, którzy skopiowali moje roboty, nawet o niczym nie myśląc.

No cóż, kurs 3.0 ma wiele interesujących i przydatnych funkcji. Oczywiście wszystko na tym blogu nigdy nie zostanie spalone.

Więc dobrze! Chodźmy. Przypomnijmy sobie ideę mojego ostatniego artykułu o duplikatach Reptocom. Pomysł jest taki, że nie ma potrzeby blokowania dostępu do czegokolwiek na blogu w pliku robots.txt. Wręcz przeciwnie, otwieramy wszystko, mówią: „Witaj robotze, wejdź, spójrz na wszystko”, przychodzi i widzi metatag:

W ten sposób nie będzie już brał strony w smarki. A jeśli roboty będą zamknięte, strażak i tak to zabierze. =) Sądząc po liczbie komentarzy pod ostatnim artykułem, zdałem sobie sprawę, że wielu nic nie zrozumiało. było mnóstwo pytań odnośnie robotów, wtyczki, przekierowań itp.

Krótko mówiąc, chłopaki, oto wszystkie odpowiedzi na wasze pytania. Obejrzyj ten film, zanim przeczytasz dalszą część artykułu.

Jelito! Przypomnijmy sobie teraz, jak znaleźliśmy duplikaty Reptocom w wynikach Google! Tak:

witryna:site.ru Reptocom

Jak znaleźć zduplikowane strony w WordPress?

OK, teraz poszukajmy innych zduplikowanych stron. Mianowicie duplikaty:

karmić
etykietka
strona
strona z komentarzami
załącznik
identyfikator_załącznika
kategoria
śledzenie

Szukaj ich w taki sam sposób jak Reptocom. Jeszcze raz pozwólcie, że naśmiewam się nie tylko z legendarnych, ale z najbardziej legendarnych Aleksander Bykadorow. Wchodzę w Google i wpisuję tak:

Naciskam „Pokaż ukryte wyniki” i widzę to:

490 zduplikowanych stron. Kanał to rozszerzenia znajdujące się na końcu adresów URL artykułów. W dowolnym swoim artykule naciśnij ctr + u, a w kodzie źródłowym zobaczysz link z kanałem na końcu. Krótko mówiąc, my też musimy się ich pozbyć. Pytanie brzmi – jak? Co wszyscy polecają nam robić w Internecie? Zgadza się, dodaj coś takiego do pliku robots.txt:

Nie zezwalaj: */*/feed/*/
Nie zezwalaj: */feed

Ale jeśli spojrzymy na blogi, wszystkie one mają kanał w wynikach Google. Cóż, okazuje się, że zakaz nie działa w Robots, prawda? Jak w takim razie się ich pozbyć? To bardzo proste – otwarcie kanału w pliku robots.txt + przekierowanie. Więcej na ten temat później.

Cienki! Sprawdziliśmy tylko zduplikowane strony kanałów, ale sprawdźmy pozostałe. Ogólnie wpisz w Google tak:

witryna: kanał site.ru
witryna:tag site.ru
site:site.ru załącznik
witryna:site.ru załącznik_id
witryna:strona site.ru
witryna: kategoria site.ru
site:site.ru strona z komentarzami
site:site.ru trackback

Wszystko jest jak zwykle! Najpierw wjeżdżamy, potem dojeżdżamy do końca i wciskamy „pokaż ukryte wyniki”. Oto co widzę u Aleksandra:

Cóż, nie znalazłem żadnych duplikatów tagu Sashy, strony z komentarzami i trackbacka. Jak sprawdziłeś swoje blogi? Czy przypadkiem nie masz teraz tej samej twarzy, którą pokazałem w ostatnim artykule na końcu (patrz zdjęcie)? Jeśli tak, to smutne. Cóż, nieważne, teraz wszystko naprawimy.

Jak pozbyć się zduplikowanych stron?

Więc! Co należy zrobić? Przede wszystkim weź ten plik robots.txt i zainstaluj go samodzielnie:

User-agent: * Disallow: /wp-includes Disallow: /wp-feed Disallow: /wp-content/plugins Disallow: /wp-content/cache Disallow: /wp-content/themes Host: site.ru Mapa witryny: http: //site.ru/sitemap.xml Klient użytkownika: Googlebot-Image Zezwalaj: /wp-content/uploads/ Klient użytkownika: YandexImages Zezwalaj: /wp-content/uploads/

Tylko nie zapomnij zastąpić site.ru swoim blogiem. Tak, ok. Roboty zainstalowane. Oznacza to, że otworzyli wszystko, co było zamknięte. Dla wielu wiele rzeczy zostało zamkniętych: kategoria i tag, kanał, strona i komentarz itp. itp. Teraz musimy umieścić ten sam metatag noindex na zduplikowanych stronach, jeśli to możliwe:

A tam, gdzie ta opcja nie jest dostępna, ustawiamy przekierowanie ze strony zduplikowanej na stronę główną. A teraz, żebyście nie zwariowali na punkcie tego, co wam tutaj powiem, lepiej wykonać następujące czynności:

Krok nr 1: Dodaj te linie do pliku .htaccess:

RewriteRule (.+)/feed /$1 RewriteRule (.+)/strona-komentarza /$1 RewriteRule (.+)/trackback /$1 RewriteRule (.+)/komentarze /1$ RewriteRule (.+)/załącznik /1$ RewriteCond %( QUERY_STRING) ^attachment_id= RewriteRule (.*) 1 $?

Ten plik znajduje się w katalogu głównym bloga, gdzie znajdują się foldery wp-admin, wp-content itp. Tutaj pobierz go na swój komputer, otwórz notatnikiem i dodaj. Tak powinno być:

# ROZPOCZNIJ WordPress RewriteEngine na RewriteBase / RewriteCond %(QUERY_STRING) ^replytocom= RewriteRule (.*) 1 $?

RewriteRule (.+)/feed /$1 RewriteRule (.+)/strona-komentarza /$1 RewriteRule (.+)/trackback /$1 RewriteRule (.+)/komentarze /1$ RewriteRule (.+)/załącznik /1$ RewriteCond %( QUERY_STRING) ^attachment_id= RewriteRule (.*) 1 $? RewriteRule ^index\.php$ - [L] RewriteCond %(REQUEST_FILENAME) !-f RewriteCond %(REQUEST_FILENAME) !-d RewriteRule . /index.php [L] # KONIEC WordPressa

Krok nr 2:

Dodaj ten kod do plikufunction.php zaraz na początku/*** DODAJ metaroboty noindex,nofollow DLA STRON ***/ funkcja my_meta_noindex () ( if (is_paged() // Wszystkie i dowolne strony paginacji) (echo ""." "."\n";) ) add_action („wp_head”, „my_meta_noindex”, 3); // dodaj swój noindex, nofollow do head

Krok nr 3: Przejdź do wtyczki All in One Seo Pack i zainstaluj ją w następujący sposób:

Krok #4:

Przejdź do panelu administracyjnego - Ustawienia - Dyskusje i odznacz opcję "Podziel komentarze najwyższego poziomu na strony":

OK. To wszystko. Teraz musimy poczekać na ponowne zaindeksowanie, aby wszystkie duplikaty ponownie zostały usunięte z wyników wyszukiwania.

Co zrobiliśmy? Powtarzam, otworzyliśmy wszystko w pliku robots.txt i teraz robot wejdzie bez przeszkód. Co więcej, na stronach takich jak strona, tag i kategoria zobaczy ten sam zakazujący metatag noindex i odpowiednio nie uwzględni strony w wynikach wyszukiwania.

W panelu administracyjnym w ustawieniach dyskusji odznaczyliśmy pole, aby nasze komentarze nie dzieliły się na strony i nie tworzyły nowych adresów URL.

Ogólnie rzecz biorąc, teraz robot wchodzący na te strony (feed, załącznik, załącznik_id, trackback) zostanie automatycznie przeniesiony na strony główne i z reguły zduplikowane strony nie będą brane pod uwagę w wynikach wyszukiwania. Przekierowanie to potęga! Cóż, to wszystko.

Jeśli użyjesz tego schematu, nie będziesz mieć duplikatów. Obwód działa i został przetestowany. Przy okazji chciałbym skorzystać z okazji i się trochę pochwalić. Oto wyniki indeksowanych stron w Google Webmaster w kwietniu:

A oto co jest teraz:

A oto co z ruchem z Google:

Jak widać duplikatów jest coraz mniej, a ruch jest coraz większy. Krótko mówiąc, wszystko działa! Szczerze mówiąc to wielka szkoda, że ​​siedziałem z tymi duplikatami przez 2 lata, w ogóle nie wiedziałem o nich, jak się ich pozbyć, i w rezultacie siedziałem przy 140-150 odwiedzających dziennie z Google . =))

Nawiasem mówiąc, ruch z Yandex jest już zauważalny.

Naturalnie, nie wszystko na raz. Czekałem rok. Wyznaczyłem sobie termin. Jestem pewien, że w ciągu roku wszystkie duplikaty znikną. W 2 miesiące zajęło to ponad 7200. Jak u Ciebie idzie? =) Ludzie już tu do mnie piszą, swoją drogą, zainstalowali mój diagram i gość poszedł w górę.

Chłopaki, czy schemat jest jasny? Jeśli specjalnie nagrałem w filmie coś innego, zerknij, może tutaj wyjaśniłem to jaśniej:

Na tym kończymy temat duplikacji treści na blogu. Co jeszcze nie zostało powiedziane. Rozważaliśmy znalezienie jedynie, że tak powiem, oficjalnych ujęć =))). Oprócz duplikatów jest też żużel i inne śmieci. Musisz także umieć go znaleźć i usunąć. Oto na przykład kilka stron śmieci z bloga Aleksandra Bykadorowa:

A takich krzywych smarków może być mnóstwo, mnóstwo! Niektórzy ludzie mają ich tysiące. Mówiłem ci na kursie, jak znaleźć te śmieci i wiele innych ciekawych rzeczy. Jak zostać blogerem 3.0 tys. Dziś ostatni dzień cena wynosi 2370 i 2570, jutro będzie to 3170 i 3470.

Pamiętaj - dobra witryna to taka, na którą przyszedł robot, załadował główną stronę indeksu, wszystkie stałe strony Twojego bloga, takie jak „O autorze”, „Kontakty”… i wszystkie Twoje artykuły! I tyle, nie powinien już niczego odbierać. Jeśli to zabierze, będzie to smutne i złe.

Na zakończenie artykułu chciałbym podziękować Sasza Alaeva, mega super-duperowi, fajnemu specjalistowi SEO, za pomoc w tworzeniu zarówno pliku robots.txt, jak i .htaccess. Te rekomendacje i nie tylko te, bardzo mi pomogły w pisaniu tych dwóch artykułów o ujęciach, a także w tworzeniu kursu KSBT 3.0.

To wszystko! Napisz w komentarzu, kto znalazł, ile masz duplikatów! =) Może nadal masz duplikaty w wynikach wyszukiwania? Możesz spróbować dowiedzieć się, jak je wyeliminować!

P.S. Na koniec pośmiejmy się jeszcze raz. Oto twarz mężczyzny, który po kilku latach prowadzenia bloga odkrył, że w wynikach wyszukiwania ma mnóstwo duplikatów i śmieci:

Żegnam wszystkich i życzę miłego weekendu!

Pozdrawiam, Aleksander Borisow

Pozdrawiam wszystkich czytelników bloga!

Dzisiaj opowiem wam, jak w przypadku zduplikowanych stron na blogu Wordpress początkujący właściciele witryn, którzy wybierają ten SMS na swoim blogu, często kończą się banem lub banem. W tym poście dowiesz się jak usunąć zduplikowane strony za pomocą pliku robots.txt z indeksu Yandex i Google.

Ale najpierw krótko opowiem o tym, dlaczego w witrynie pojawiają się zduplikowane strony, a następnie jak rozwiązać ten problem. Jeśli nie chcesz czytać przedmowy, możesz przejść od razu do drugiej części artykułu.

Co to są duplikaty stron w witrynie internetowej?

Najpopularniejszy silnik WordPress jest wybierany przez większość użytkowników do swoich stron internetowych ze względu na jego prostotę, niezawodność i bogatą funkcjonalność wewnętrzną. Ale wraz z tą prostotą WordPress ma kilka wad, które są „wadami” tylko dla początkujących użytkowników, którzy nie poznali w pełni wszystkich możliwości i wad tej platformy.

Dlatego każdemu, kto nie wie, wyjaśniam, że WordPress ma właściwości techniczne polegające na generowaniu wielu duplikatów tych samych artykułów, z których każdy jest ułożony w kategoriach, tagach, archiwach według miesiąca i autora. Strony z formularza wyszukiwania blogów i paginacji, źródła wiadomości RSS i zduplikowane strony z komentarzami również są zduplikowane.

  • Oznacza to, że jeśli w rzeczywistości masz tylko 100 artykułów napisanych na swojej stronie, to w rzeczywistości będzie ich 3-5 razy więcej zaindeksowanych artykułów. Jak powiedziałem w poprzednim akapicie, każdy artykuł zostanie zduplikowany w tagu i archiwum.
  • Wcześniej, gdy biznes polegający na sprzedaży linków ze strony kwitł, to aby uzyskać maksymalny zysk, witryna powinna mieć jak najwięcej stron. Dlatego WordPress był idealną platformą do tworzenia wielostronicowych witryn internetowych. Jednak z biegiem czasu algorytmy wyszukiwania nauczyły się rozpoznawać to oszustwo i zaczęły walczyć z takimi witrynami, nakładając na nie AGS lub BAN (częściej ta druga kara).

Niczego niepodejrzewający użytkownicy utworzyli stronę internetową na tym silniku, zaczęli ją wypełniać treścią i po pewnym czasie odkryli, że ich zasób internetowy został ukarany i podczas wyszukiwania pozostało od 1 do 9 stron.

Pojawienie się zduplikowanych stron zostało uznane przez algorytmy wyszukiwania za witrynę stworzoną w celu handlu linkami. Choć jednocześnie nie brał udziału w żadnej wymianie linków, czyli nie sprzedawał ani nie kupował linków do i z serwisu.

Jak usunąć zduplikowane strony

Wskazówka 1

W rzeczywistości odpowiedź na pytanie, jak usunąć zduplikowane strony, jest prosta. Aby to zrobić, w pliku robots.txt należy zabronić indeksowania tego, czego nie trzeba „wprowadzać” do indeksu PS (patrz lista poniżej). To wszystko!

Sposób utworzenia pliku robots.txt opisałem w artykule do którego przed chwilą podałem link. Tam dowiesz się co oznacza każda linijka i czego zabraniamy indeksować.

Rodzaje zduplikowanych stron:

  1. odpowiedz na kom
  2. karmić
  3. strona
  4. strona z komentarzami
  5. załącznik
  6. identyfikator_załącznika
  7. kategoria
  8. śledzenie

Z całej tej liczby kategorie nie mogą zostać zamknięte do indeksowania.

Wskazówka 2

Zdecydowanie musisz skonfigurować przekierowanie z www..ru i odwrotnie. W tej chwili możesz to sprawdzić w ten sposób. W wierszu przeglądarki wpisz adres witryny z www przed nazwą domeny, czyli www..

Jeśli wszystko jest w porządku, to domena nie będzie miała www. Jeśli witryna ma wiele domen, przekieruj z nich do głównego serwera lustrzanego witryny.

Wskazówka 3

Jeśli wtyczka All in One Seo Pack jest zainstalowana i należy ją zainstalować, to w ustawieniach pamiętaj o zaznaczeniu pola wyboru „Kanoniczne adresy URL”.

Wskazówka 4

Jeśli zauważysz, że w indeksie Google zaindeksowano więcej stron niż jest ich w rzeczywistości, wykonaj następujące czynności. Przejdź do panelu administracyjnego do zakładki „Opcje”, „Dyskusja” i tutaj pamiętaj (zdecydowanie polecam) odznacz pole obok „Podziel komentarze najwyższego poziomu na strony”.

Jeśli nie zostanie to zrobione, każdy komentarz będzie miał oddzielną zduplikowaną stronę z własnym adresem URL (replytocom), który pojawi się po kliknięciu przycisku formularza komentarza „Odpowiedz”, gdy włączone są komentarze w drzewie, które również należy wyłączyć. W przeciwnym razie tyle komentarzy, ile będzie mieć pojedynczy artykuł, będzie taka sama liczba duplikatów.

Zduplikowane strony z komentarzami możesz sprawdzić w Google, wpisując adres URL swojego bloga z przedrostkiem site: przed domeną i po nim Reptocom. Na zrzucie ekranu poniżej możesz zobaczyć wynik sprawdzenia mojego bloga. Jak widać, wszystko jest w porządku.

Mam nadzieję, że po przeczytaniu tego artykułu wiesz, jak usunąć zduplikowane strony. A gdy całą zdobytą wiedzę zastosujesz na swoim blogu, to jeśli zrobiłeś wszystko zgodnie z potrzebami, to po zaindeksowaniu liczba stron w indeksie Google powinna się zmniejszyć.

I przypominam jeszcze raz, że w WordPressie pojawiają się zduplikowane strony ze względu na cechy techniczne tego silnika i pojawiają się tylko w Google, co opisałem w Metodach 2, 3 i 4 do rozwiązania.



Jeśli zauważysz błąd, zaznacz fragment tekstu i naciśnij Ctrl+Enter
UDZIAŁ: