Wyłączenie indeksowania w pliku robots.txt
Plik robots.txt to prosty plik tekstowy, który informuje wyszukiwarki, które sekcje witryny mogą lub nie mogą być indeksowane. Jeśli chcesz ograniczyć dostęp do określonych stron, katalogów lub plików, możesz ustawić te ograniczenia w pliku robots.txt. Korzystając z usług AlexHost, uzyskasz pełny dostęp do zarządzania tym plikiem, co pomoże Ci skutecznie kontrolować indeksowanie Twojej witryny i poprawić optymalizację SEO.
W tym artykule przeprowadzimy Cię przez proces wyłączania indeksowania za pomocą pliku robots.txt.
Krok 1: Uzyskaj dostęp do pliku robots.txt
Plik robots.txt znajduje się zazwyczaj w katalogu głównym witryny. Na przykład można uzyskać do niego dostęp, odwiedzając stronę:
Jeśli Twoja witryna nie ma jeszcze pliku robots.txt, możesz go utworzyć za pomocą dowolnego edytora tekstu. Upewnij się, że plik ma nazwę robots.txt i jest umieszczony w katalogu głównym witryny.
Krok 2: Składnia pliku robots.txt
Plik robots.txt wykorzystuje dwie podstawowe reguły:
- User-agent: Określa, do których robotów indeksujących wyszukiwarek ma zastosowanie reguła (np. Googlebot, Bingbot). * stosuje regułę do wszystkich wyszukiwarek.
- Disallow: Określa strony lub katalogi, które nie powinny być indeksowane.
Krok 3: Wyłącz indeksowanie dla określonych stron lub katalogów
Aby zablokować indeksowanie określonych stron lub katalogów, dodaj następujące wiersze do pliku robots.txt:
- Zablokuj określoną stronę:User-agent: * Disallow: /private-page.html
- Blokowanie całego katalogu:User-agent: * Disallow: /prywatny-katalog/
Krok 4: Wyłącz indeksowanie dla całej witryny
Aby uniemożliwić wyszukiwarkom indeksowanie całej witryny, dodaj następujące elementy:
Mówi to wszystkim robotom indeksującym wyszukiwarek, aby nie indeksowały żadnych stron w Twojej witrynie.
Krok 5: Przetestuj plik robots.txt
Po zaktualizowaniu pliku robots.txt ważne jest, aby przetestować go za pomocą narzędzia Google Robots.txt Tester w Google Search Console. Narzędzie to pozwala sprawdzić, czy reguły działają zgodnie z oczekiwaniami.
Podsumowanie
Plik robots.txt to potężne narzędzie do kontrolowania, które części witryny są indeksowane przez wyszukiwarki. Poprawnie konfigurując plik robots.txt, można zapewnić, że wrażliwe lub nieistotne treści nie będą widoczne w wynikach wyszukiwania. Zawsze testuj swoje reguły, aby upewnić się, że są stosowane prawidłowo.