Okna.  Wirusy.  Laptopy.  Internet.  Biuro.  Narzędzia.  Kierowcy

Szukaj robota zwany specjalny program dowolna wyszukiwarka, która jest przeznaczona do wejścia do bazy danych (indeksowania) witryn i ich stron znalezionych w Internecie. Używane są także nazwy: crawler, spider, bot, Automaticindexer, ant, webcrawler, bot, webscutter, webroboty, webspider.

Zasada działania

Robot wyszukujący to program typu przeglądarka. Stale skanuje sieć: odwiedza zaindeksowane (już znane) witryny, podąża za zawartymi w nich linkami i znajduje nowe zasoby. Po odkryciu nowego zasobu robot proceduralny dodaje go do indeksu wyszukiwarki. Robot wyszukiwania indeksuje także aktualizacje na stronach, których częstotliwość jest stała. Na przykład witrynę aktualizowaną raz w tygodniu pająk będzie odwiedzał z taką częstotliwością, a treści witryn z wiadomościami mogą zostać zaindeksowane w ciągu kilku minut od publikacji. Jeśli na stronę nie prowadzą żadne linki z innych zasobów, to aby przyciągnąć roboty wyszukujące, należy dodać zasób poprzez specjalny formularz (Centrum Webmasterzy Google, panel webmasterów Yandex itp.).

Rodzaje robotów wyszukujących

Pająki Yandex:

  • Yandex/1.01.001 I - główny bot zajmujący się indeksowaniem,
  • Yandex/1.01.001 (P) - indeksuje zdjęcia,
  • Yandex/1.01.001 (H) - znajduje strony lustrzane,
  • Yandex/1.03.003 (D) - sprawdza, czy strona dodana z panelu webmastera spełnia parametry indeksowania,
  • YaDirectBot/1.0 (I) - indeksuje zasoby z sieć reklamowa Yandex,
  • Yandex/1.02.000 (F) - indeksuje ulubione ikony witryny.

Pająki Google:

  • Głównym robotem jest Googlebot
  • Googlebot News - skanuje i indeksuje aktualności,
  • Google Mobile – indeksuje strony pod kątem urządzeń mobilnych,
  • Googlebot Images - wyszukuje i indeksuje obrazy,
  • Googlebot Video – indeksuje filmy,
  • Google AdsBot - sprawdza jakość strony docelowej,
  • Google Mobile AdSense i Google AdSense— indeksuje witryny sieci reklamowej Google.

Inne wyszukiwarki również korzystają z kilku typów robotów, funkcjonalnie podobnych do wymienionych.

Jego zadaniem jest dokładne analizowanie zawartości stron witryn prezentowanych w Internecie i przesyłanie wyników analizy do wyszukiwarki.

Nowe strony szukaj robota przez pewien czas omijane, ale później są indeksowane i przy braku jakichkolwiek sankcji ze strony wyszukiwarek mogą być wyświetlane w wynikach wyszukiwania.

Zasada działania

Działanie robotów wyszukujących opiera się na tej samej zasadzie, co działanie zwykłej przeglądarki. Odwiedzając konkretną witrynę, omijają niektóre jej strony lub wszystkie strony bez wyjątku. Otrzymane informacje o witrynie wysyłają do indeksu wyszukiwania. Informacje te pojawiają się w wyniki wyszukiwania odpowiadające konkretnemu żądaniu.

Ze względu na to, że roboty wyszukujące mogą odwiedzić tylko część stron, mogą pojawić się problemy z indeksowaniem dużych witryn. Te same problemy mogą pojawić się z powodu złej jakości.

Przerwy w jego działaniu powodują, że niektóre strony stają się niedostępne do analizy. Prawidłowo skompilowany i odpowiednio skonfigurowany plik robots.txt odgrywa ważną rolę w ocenie witryny przez roboty wyszukujące.

Głębokość skanowania zasobów i częstotliwość przeszukiwania witryn przez roboty wyszukujące zależy od:

  • Algorytmy dla wyszukiwarek.
  • Częstotliwość aktualizacji strony internetowej.
  • Struktury witryny.

Indeks wyszukiwania

Baza danych informacji gromadzonych przez roboty wyszukujące nazywana jest indeksem wyszukiwania. Ta baza danych jest wykorzystywana przez wyszukiwarki do generowania wyników wyszukiwania dla określonych domen.

Do indeksu wprowadzane są nie tylko informacje o witrynach: roboty wyszukujące potrafią rozpoznawać obrazy, pliki multimedialne i dokumenty w różnych formatach formaty elektroniczne(.docx, .pdf itp.).

Jednym z najaktywniejszych robotów wyszukujących w systemie Yandex jest Bystrobot. Stale skanuje zasoby wiadomości i inne często aktualizowane witryny. , którego nie zauważa speedbot, nie ma żadnego znaczenia.

Możesz go przyciągnąć za pomocą specjalnych narzędzi, które są skuteczne w przypadku witryn o różnorodnych celach. Istnieją osobne roboty sprawdzające dostępność stron, analizujące ich indywidualną charakterystykę oraz indeksujące zdjęcia i dokumenty w wyszukiwarkach.

Kochani, witam Was ponownie! Teraz przyjrzymy się, czym są roboty wyszukujące i szczegółowo porozmawiamy o robocie wyszukiwania Google oraz o tym, jak się z nimi zaprzyjaźnić.

Najpierw musisz zrozumieć, czym właściwie są roboty wyszukujące; nazywane są też pająkami. Jaką pracę wykonują pająki wyszukiwarek?

Są to programy sprawdzające witryny. Przeglądają wszystkie wpisy i strony na Twoim blogu, zbierają informacje, które następnie przekazują do bazy wyszukiwarki, dla której pracują.

Nie musisz znać całej listy robotów wyszukujących, najważniejsze jest, aby wiedzieć, że Google ma teraz dwa główne pająki, zwane „pandą” i „pingwinem”. Walczą z treściami niskiej jakości i niechcianymi linkami, a Ty musisz wiedzieć, jak odeprzeć ich ataki.

Robot wyszukiwania Google Panda został stworzony, aby w wynikach wyszukiwania promować wyłącznie materiały wysokiej jakości. Wszystkie witryny zawierające treści o niskiej jakości są obniżane w wynikach wyszukiwania.

Pająk ten pojawił się po raz pierwszy w 2011 roku. Przed jego pojawieniem się można było wypromować dowolną stronę internetową, publikując dużą ilość tekstu w artykułach i wykorzystując ogromną ilość słowa kluczowe. Podsumowując, te dwie techniki przyniosły nie tylko wysokiej jakości treści, a dobre witryny spadły w wynikach wyszukiwania.

„Panda” natychmiast zaprowadziła porządek, sprawdzając wszystkie witryny i umieszczając wszystkich na właściwych miejscach. Choć zmaga się z treściami o niskiej jakości, teraz możliwe jest promowanie nawet małych witryn za pomocą artykułów wysokiej jakości. Chociaż wcześniej promowanie takich witryn nie miało sensu, nie mogły one konkurować z gigantami posiadającymi dużą ilość treści.

Teraz dowiemy się, jak uniknąć sankcji za „pandę”. Najpierw musisz zrozumieć, czego ona nie lubi. Pisałam już wyżej, z czym się zmaga zła treść, ale jaki rodzaj tekstu jest dla niej zły, zastanówmy się, aby nie publikować czegoś takiego na swojej stronie internetowej.

Robot wyszukiwarki Google stara się zapewnić jedynie wysokiej jakości materiały dla kandydatów. Jeśli masz artykuły, które zawierają niewiele informacji i nie wyglądają atrakcyjnie, to pilnie przepisz te teksty, aby „panda” do ciebie nie dotarła.

Treści wysokiej jakości mogą być zarówno duże, jak i małe, ale jeśli pająk zobaczy długi artykuł zawierający wiele informacji, będzie on bardziej przydatny dla czytelnika.

Następnie należy zauważyć powielanie, innymi słowy plagiat. Jeśli myślisz, że przepiszesz artykuły innych osób na swoim blogu, możesz natychmiast położyć kres swojej witrynie. Kopiowanie jest surowo karane poprzez zastosowanie filtra oraz Sprawdzany jest plagiat bardzo proste, napisałem artykuł na ten temat jak sprawdzić niepowtarzalność tekstów.

Kolejną rzeczą, na którą warto zwrócić uwagę, jest przesycenie tekstu słowami kluczowymi. Ktokolwiek myśli, że uda mu się napisać artykuł wykorzystując wyłącznie słowa kluczowe i zająć pierwsze miejsce w wynikach wyszukiwania, jest w wielkim błędzie. Mam artykuł na temat sprawdzania trafności stron, koniecznie go przeczytaj.

Kolejną rzeczą, która może przyciągnąć do Ciebie „pandę”, są stare artykuły, które są moralnie przestarzałe i nie generują ruchu na stronie. Zdecydowanie trzeba je zaktualizować.

Istnieje również robot wyszukiwania Google „pingwin”. Ten pająk zwalcza spam i niepotrzebne linki w Twojej witrynie. Oblicza również zakupione linki z innych zasobów. Dlatego, aby nie bać się tego robota wyszukiwania, nie powinieneś kupować linków, ale publikować treści wysokiej jakości, aby ludzie sami linkowali do Ciebie.

Sformułujmy teraz, co należy zrobić, aby witryna wyglądała idealnie w oczach robota wyszukującego:

  • Aby stworzyć wysokiej jakości treść, najpierw przeanalizuj temat na długo przed napisaniem artykułu. Następnie musisz zrozumieć, że ludzie są naprawdę zainteresowani tym tematem.
  • Użyj konkretnych przykładów i zdjęć, dzięki czemu artykuł będzie żywy i interesujący. Podziel tekst na małe akapity, aby ułatwić jego czytanie. Na przykład, jeśli otworzysz w gazecie stronę z dowcipami, które z nich przeczytasz jako pierwsze? Oczywiście każda osoba czyta najpierw krótkie teksty, potem dłuższe, a na końcu długie okłady na stopy.
  • Ulubioną kłótnią „pandy” jest brak przydatności artykułu zawierającego nieaktualne informacje. Śledź aktualizacje i zmieniaj teksty.
  • Śledź gęstość słów kluczowych; napisałem powyżej, jak to zagęszczenie określić; w opisywanym przeze mnie serwisie otrzymasz dokładną wymaganą liczbę słów kluczowych.
  • Nie plagiatuj, każdy wie, że nie można ukraść cudzych rzeczy ani SMS-ów – to samo. Za kradzież zostaniesz ukarany w postaci złapania przez filtr.
  • Napisz teksty składające się z co najmniej dwóch tysięcy słów, a wtedy taki artykuł będzie wyglądał pouczająco oczami robotów wyszukiwarek.
  • Trzymaj się tematu na swoim blogu. Jeżeli prowadzisz bloga o zarabianiu w internecie to nie musisz publikować artykułów o wiatrówkach. Może to obniżyć ocenę Twojego zasobu.
  • Pięknie projektuj swoje artykuły, dziel je na akapity i dodawaj zdjęcia tak, aby czytanie sprawiało Ci przyjemność i nie chciało Ci się szybko opuszczać serwisu.
  • Kupując linki, umieszczaj je w najciekawszych i najbardziej przydatnych artykułach, które ludzie faktycznie przeczytają.

Cóż, teraz już wiesz, jaką pracę wykonują roboty wyszukiwarek i możesz się z nimi zaprzyjaźnić. A co najważniejsze, szczegółowo zbadałeś robota wyszukiwarki Google oraz „pandę” i „pingwina”.

Roboty wyszukiwarek, czasami nazywane „pająkami” lub „robotami indeksującymi”, to moduły oprogramowania wyszukujące strony internetowe. Jak one działają? Co oni właściwie robią? Dlaczego są ważne?

Biorąc pod uwagę cały hałas wokół optymalizacja wyszukiwarek i indeksowe bazy danych wyszukiwarek, prawdopodobnie myślisz, że roboty muszą być wspaniałymi i potężnymi stworzeniami. Nieprawda. Boty wyszukiwarek mają jedynie podstawową funkcjonalność podobną do tej, jaką posiadały wczesne przeglądarki, jeśli chodzi o to, jakie informacje mogą rozpoznać w witrynie. Podobnie jak wczesne przeglądarki, roboty po prostu nie mogą wykonywać pewnych czynności. Roboty nie rozumieją ramek, animacji Flash, obrazów ani JavaScript. Nie mogą wchodzić do sekcji chronionych hasłem i nie mogą klikać wszystkich przycisków znajdujących się na stronie. Mogą zamknąć się podczas procesu dynamicznego indeksowania. Adresy URL i działają bardzo powoli, aż do zatrzymania i bezsilności nad nawigacją JavaScript.

Jak działają roboty wyszukiwarek?

Roboty wyszukujące należy postrzegać jako zautomatyzowane programy do wyszukiwania danych, które podróżują po Internecie w poszukiwaniu informacji i łączy do informacji.

Kiedy wejdziesz na stronę „Prześlij adres URL” i zarejestrujesz w wyszukiwarce kolejną stronę internetową, do kolejki robot będzie dodawany nowy adres URL, aby wyświetlić witryny. Nawet jeśli nie zarejestrujesz strony, wiele robotów znajdzie Twoją witrynę, ponieważ znajdują się w niej linki z innych witryn prowadzące do Twojej. To jeden z powodów, dla których ważne jest budowanie popularności linków i umieszczanie linków w innych zasobach tematycznych.

Kiedy roboty wchodzą na Twoją witrynę, najpierw sprawdzają, czy istnieje plik robots.txt. Ten plik informuje roboty, które sekcje Twojej witryny nie powinny być indeksowane. Zazwyczaj mogą to być katalogi zawierające pliki, którymi robot nie jest zainteresowany lub o których nie powinien wiedzieć.

Roboty przechowują i zbierają linki z każdej odwiedzanej strony, a następnie podążają za nimi do innych stron. Wszystko sieć światowa zbudowany z linków. Początkowym pomysłem stworzenia sieci internetowej była możliwość śledzenia łączy z jednego miejsca do drugiego. Tak poruszają się roboty.

„Inteligentność” indeksowania stron w czasie rzeczywistym zależy od inżynierów wyszukiwarek, którzy wymyślili metody stosowane do oceny informacji pobieranych przez roboty wyszukiwarek. Po umieszczeniu w bazie danych wyszukiwarki informacje są dostępne dla użytkowników przeprowadzających wyszukiwanie. Gdy użytkownik wyszukiwarki wpisze zapytanie wyszukiwania, wykonywana jest seria szybkich obliczeń, aby upewnić się, że rzeczywiście zwracany jest właściwy zestaw witryn dla najtrafniejszej odpowiedzi.

Możesz sprawdzić, które strony Twojej witryny odwiedził już robot wyszukujący, kierując się plikami logów serwera lub wynikami statystycznego przetwarzania pliku logu. Identyfikując roboty, zobaczysz, kiedy odwiedziły Twoją witrynę, jakie strony i jak często. Niektóre roboty można łatwo rozpoznać po nazwie, np. „Googlebot” firmy Google. Inne są bardziej ukryte, jak „Slurp” Inktomi. W logach mogą pojawić się także inne roboty i możliwe, że nie będziesz w stanie ich od razu zidentyfikować; niektóre z nich mogą nawet być przeglądarkami obsługiwanymi przez ludzi.

Oprócz identyfikowania unikalnych robotów wyszukujących i liczenia liczby ich wizyt, statystyki mogą również pokazywać roboty agresywne, zużywające przepustowość lub roboty, które są niepożądane do odwiedzania Twojej witryny.

W jaki sposób czytają strony Twojej witryny?

Kiedy robot wyszukiwania odwiedza stronę, sprawdza jej widoczny tekst i zawartość różnych tagów kod źródłowy Twojej strony (tag tytułowy, metatagi itp.), a także hiperłącza na stronie. Na podstawie słów zawartych w linkach wyszukiwarka decyduje, o czym jest dana strona. Do obliczenia kluczowych punktów na stronie wykorzystuje się wiele czynników, które „odgrywają rolę”. Każda wyszukiwarka ma swój własny algorytm oceny i przetwarzania informacji. W zależności od konfiguracji robota, informacje są indeksowane, a następnie dostarczane do bazy wyszukiwarki.

Następnie informacje dostarczone do indeksowych baz danych wyszukiwarki stają się częścią procesu rankingu wyszukiwarki i bazy danych. Gdy odwiedzający zadaje zapytanie, wyszukiwarka przeszukuje całą bazę danych, aby zwrócić ostateczną listę odpowiadającą wyszukiwanemu zapytaniu.

Bazy danych wyszukiwarek są starannie przetwarzane i dostosowywane do zgodności. Jeśli jesteś już w bazie, roboty będą Cię okresowo odwiedzać, aby zebrać wszelkie zmiany na stronach i upewnić się, że mają najwięcej najnowsze informacje. Liczba odwiedzin uzależniona jest od ustawień wyszukiwarki, które mogą się różnić w zależności od jej rodzaju i przeznaczenia.

Czasami roboty wyszukujące nie są w stanie zaindeksować witryny. Jeśli Twoja witryna uległa awarii lub odwiedza ją duża liczba osób, robot może być bezradny w próbach jej zaindeksowania. Gdy tak się stanie, witryna nie będzie mogła zostać ponownie zaindeksowana, co zależy od tego, jak często robot ją odwiedza. W większości przypadków roboty, którym nie uda się dotrzeć na Twoje strony, spróbują ponownie później, mając nadzieję, że Twoja witryna wkrótce będzie dostępna.

Przeglądając dzienniki, nie można zidentyfikować wielu robotów sieciowych. Być może odwiedzają Cię, ale dzienniki mówią, że ktoś korzysta z przeglądarki Microsoft itp. Niektóre roboty identyfikują się za pomocą nazwy wyszukiwarki (googlebot) lub jej klona (Scooter = AltaVista).

W zależności od konfiguracji robota, informacje są indeksowane, a następnie dostarczane do baz danych wyszukiwarek.

Bazy danych wyszukiwarek podlegają różnym modyfikacjom. Nawet katalogi, które mają dodatkowe wyniki wyszukiwania, wykorzystują dane robota jako treść swojej witryny.

Tak naprawdę roboty nie są wykorzystywane przez wyszukiwarki wyłącznie do powyższych celów. Istnieją roboty, które sprawdzają bazy danych pod kątem nowej zawartości, odwiedzają starą zawartość baz danych, sprawdzają, czy linki się zmieniły, pobierają całe witryny do przeglądania i tak dalej.

Z tego powodu czytanie plików logów i monitorowanie wyników wyszukiwania pomaga monitorować indeksowanie Twoich projektów.

Pająki wyszukiwarek to boty internetowe, których zadaniem jest systematyczne skanowanie stron na Świecie. Szeroka sieć aby zapewnić indeksowanie sieci. Tradycyjnie skanowanie przestrzeni WWW odbywa się w celu aktualizacji informacji o treściach zamieszczanych w sieci, aby zapewnić użytkownikom aktualną informację o zawartości danego zasobu. Rodzaje robotów wyszukujących i ich funkcje zostaną omówione w tym artykule.

Pająki wyszukiwania można również nazwać inaczej: roboty, pająki internetowe, roboty indeksujące. Jednak niezależnie od nazwy, wszyscy oni zajmują się ciągłym i ciągłym badaniem zawartości wirtualnej przestrzeni. Robot utrzymuje listę adresów URL, z których na bieżąco pobierane są dokumenty. Jeśli pająk podczas procesu indeksowania znajdzie nowy link, zostanie dodany do tej listy.

Tym samym działania robota można porównać do działania zwykłego człowieka korzystającego z przeglądarki. Jedyna różnica jest taka, że ​​otwieramy tylko te linki, które nas interesują, a robot otwiera wszystko, o czym ma informacje. Dodatkowo robot po zapoznaniu się z zawartością zaindeksowanej strony przesyła w specjalnej formie dane o niej do serwerów wyszukiwarek w celu przechowywania do czasu zgłoszenia żądania przez użytkownika.

Jednocześnie każdy robot wykonuje swoje specyficzne zadanie: część treści indeksu, część grafiki indeksu, jeszcze inna zapisuje treść w archiwum itp.

Głównym zadaniem wyszukiwarek- stworzenie algorytmu, który pozwoli na szybkie i najpełniejsze pozyskanie informacji, gdyż nawet giganci wyszukiwarek nie są w stanie zapewnić kompleksowego procesu skanowania. Dlatego każda firma oferuje robotom unikalne formuły matematyczne, według których bot w kolejnym kroku wybiera stronę, którą chce odwiedzić. To, w połączeniu z algorytmami rankingowymi, jest jednym z najważniejszych kryteriów, według których użytkownicy wybierają wyszukiwarkę: gdzie informacje o witrynach są pełniejsze, świeże i przydatne.

Robot wyszukiwarki może nie wiedzieć o Twojej witrynie, jeśli nie ma do niej linków (co jest być może rzadkością - dziś po zarejestrowaniu nazwy domeny w Internecie znajdują się odniesienia do niej). Jeśli nie ma linków, musisz poinformować o tym wyszukiwarkę. W tym celu z reguły „ konta osobiste» webmasterzy.

Jakie jest główne zadanie robotów wyszukujących?

Choć byśmy chcieli, głównym zadaniem robota wyszukiwania wcale nie jest informowanie świata o istnieniu naszej witryny. Trudno to sformułować, ale jednak na podstawie faktu, że wyszukiwarki działają tylko dzięki swoim klientom, czyli użytkownikom, robot musi zapewniać szybkie wyszukiwanie i indeksowanie danych zamieszczanych w sieci. Tylko to pozwala wyszukiwarce zaspokoić zapotrzebowanie odbiorców na trafne i trafne wyniki wyszukiwania.

Oczywiście roboty nie są w stanie zaindeksować 100% stron internetowych. Z badań wynika, że ​​liczba stron ładowanych przez liderów wyszukiwania nie przekracza 70% całkowitej liczby adresów URL zamieszczonych w Internecie. Jednak to, jak dokładnie Twój zasób został zbadany przez bota, wpłynie również na liczbę użytkowników, którzy śledzą zapytania z wyszukiwania. Dlatego optymalizatorzy męczą się, próbując „nakarmić” robota, aby jak najszybciej zaznajomił się ze zmianami.

W Runecie dopiero w 2016 roku Yandex awansował na drugie miejsce pod względem miesięcznego zasięgu oglądalności, za Google. Nic więc dziwnego, że on największa liczba pająki badające przestrzeń wśród domowych PS. Nie ma sensu wymieniać ich w całości: można to zobaczyć w sekcji „Pomoc dla webmastera” > Zarządzanie robotem wyszukiwania > Jak sprawdzić, czy robot należy do Yandex.

Wszystkie roboty wyszukiwarek mają ściśle regulowanego klienta użytkownika. Wśród tych, które twórca witryny z pewnością będzie musiał spełnić:

  • Mozilla/5.0 (kompatybilny; YandexBot/3.0; +http://yandex.com/bots) - główny bot indeksujący;
  • Mozilla/5.0 (iPhone; procesor iPhone OS 8_1 jak Mac OS X) AppleWebKit/600.1.4 (KHTML, jak Gecko) Wersja/8.0 Mobile/12B411 Safari/600.1.4 (kompatybilny; YandexBot/3.0; +http://yandex .com/bots) - pająk indeksujący;
  • Mozilla/5.0 (kompatybilna; YandexImages/3.0; +http://yandex.com/bots) - bot Yandex.Images;
  • Mozilla/5.0 (kompatybilny; YandexMedia/3.0; +http://yandex.com/bots) - indeksuje materiały multimedialne;
  • Mozilla/5.0 (kompatybilny; YandexFavicons/1.0; +http://yandex.com/bots) - indeksuje ikony witryn.

Aby przyciągnąć pająki Yandex do swojej witryny, zaleca się wykonanie kilku proste działania:

  • poprawnie skonfiguruj plik robots.txt;
  • utwórz kanał RSS;
  • umieść mapę witryny z pełną listą zaindeksowanych stron;
  • utwórz stronę (lub strony), która będzie zawierać linki do wszystkich dokumentów zasobu;
  • skonfigurować statusy HTTP;
  • dostarczać działalność społeczna po publikacji materiałów (a nie tylko komentarzy, ale udostępnienia dokumentu);
  • intensywne umieszczanie nowych, unikalnych tekstów.

Za tym ostatnim argumentem przemawia zdolność botów do zapamiętywania szybkości aktualizacji treści i przychodzenia na stronę z wykrytą częstotliwością dodawania nowych materiałów.

Jeśli chcesz uniemożliwić robotom Yandex dostęp do stron (na przykład sekcji technicznych), musisz skonfigurować plik robots.txt. Pająki PS są w stanie zrozumieć standardowe wyjątki dla botów, więc zwykle nie ma trudności z utworzeniem pliku.

Agent użytkownika: Yandex

Uniemożliwić: /

zabrania PS indeksowania całej witryny.

Ponadto roboty Yandex są w stanie uwzględnić rekomendacje określone w metatagach. Przykład: zakaże demonstracji w wydawaniu linku do kopii dokumentu z archiwum. I dodanie tagu do kodu strony wskaże to ten dokument nie ma potrzeby indeksowania.

Pełna lista prawidłowe wartości można znaleźć w sekcji „Korzystanie z elementów HTML” w Pomocy dla webmasterów.

Roboty wyszukiwania Google

Główny mechanizm Google służący do indeksowania treści WWW nazywa się Googlebot. Jego silnik jest skonfigurowany tak, aby codziennie sprawdzać miliardy stron w celu znalezienia nowych lub zmienionych dokumentów. Jednocześnie bot sam określa, które strony przeskanować, a które zignorować.

W przypadku tego robota ważne jest, aby witryna zawierała plik mapy witryny dostarczony przez właściciela zasobu. Sieć komputerów dbająca o jego funkcjonowanie jest na tyle potężna, że ​​bot może raz na kilka sekund wysyłać żądania do stron Twojej witryny. A bot jest skonfigurowany tak, aby analizować większą liczbę stron za jednym razem, aby nie powodować obciążenia serwera. Jeśli Twoja witryna jest spowalniana przez częste żądania pająków, możesz zmienić prędkość indeksowania, dostosowując ją Konsola wyszukiwania. Niestety nie ma możliwości zwiększenia szybkości skanowania.

Bot Google może zostać poproszony o ponowne zaindeksowanie witryny. Aby to zrobić, należy otworzyć Search Console i poszukać funkcji Dodaj do indeksu, która jest dostępna dla użytkowników narzędzia Przeglądaj jako Googlebot. Po zeskanowaniu pojawi się przycisk Dodaj do indeksu. Google nie gwarantuje jednak, że wszystkie zmiany zostaną zaindeksowane, ponieważ proces ten jest związany z pracą ” złożone algorytmy».

Przydatne narzędzia

Wyliczenie wszystkich narzędzi pomagających optymalizatorom w pracy z botami jest dość trudne, ponieważ jest ich mnóstwo. Oprócz wspomnianego powyżej „Wyświetl jako Googlebot” warto zwrócić uwagę na analizatory plików robots.txt Google i Yandex, analizatory Pliki mapy witryny, usługa „Sprawdzanie odpowiedzi serwera” z rosyjskiego PS. Dzięki ich możliwościom wyobrazisz sobie jak wygląda Twoja witryna oczami pająka, co pomoże Ci uniknąć błędów i zapewni najszybsze indeksowanie Twojej witryny.



Jeśli zauważysz błąd, zaznacz fragment tekstu i naciśnij Ctrl+Enter
UDZIAŁ: