Wyłączenie indeksowania w pliku robots.txt ⋆ ALexHost SRL

Sprawdź swoje umiejętności we wszystkich naszych usługach hostingowych i otrzymaj 15% zniżki!

Użyj kodu przy kasie:

Skills
09.12.2024

Wyłączenie indeksowania w pliku robots.txt

Plik robots.txt to prosty plik tekstowy, który informuje wyszukiwarki, które sekcje witryny mogą lub nie mogą być indeksowane. Jeśli chcesz ograniczyć dostęp do określonych stron, katalogów lub plików, możesz ustawić te ograniczenia w pliku robots.txt. Korzystając z usług AlexHost, uzyskasz pełny dostęp do zarządzania tym plikiem, co pomoże Ci skutecznie kontrolować indeksowanie Twojej witryny i poprawić optymalizację SEO.

W tym artykule przeprowadzimy Cię przez proces wyłączania indeksowania za pomocą pliku robots.txt.

Krok 1: Uzyskaj dostęp do pliku robots.txt

Plik robots.txt znajduje się zazwyczaj w katalogu głównym witryny. Na przykład można uzyskać do niego dostęp, odwiedzając stronę:

http://yourwebsite.com/robots.txt

Jeśli Twoja witryna nie ma jeszcze pliku robots.txt, możesz go utworzyć za pomocą dowolnego edytora tekstu. Upewnij się, że plik ma nazwę robots.txt i jest umieszczony w katalogu głównym witryny.

Krok 2: Składnia pliku robots.txt

Plik robots.txt wykorzystuje dwie podstawowe reguły:

  • User-agent: Określa, do których robotów indeksujących wyszukiwarek ma zastosowanie reguła (np. Googlebot, Bingbot). * stosuje regułę do wszystkich wyszukiwarek.
  • Disallow: Określa strony lub katalogi, które nie powinny być indeksowane.

Krok 3: Wyłącz indeksowanie dla określonych stron lub katalogów

Aby zablokować indeksowanie określonych stron lub katalogów, dodaj następujące wiersze do pliku robots.txt:

  • Zablokuj określoną stronę:
    User-agent: * Disallow: /private-page.html
  • Blokowanie całego katalogu:
    User-agent: * Disallow: /prywatny-katalog/

Krok 4: Wyłącz indeksowanie dla całej witryny

Aby uniemożliwić wyszukiwarkom indeksowanie całej witryny, dodaj następujące elementy:

User-agent: * Disallow: /

Mówi to wszystkim robotom indeksującym wyszukiwarek, aby nie indeksowały żadnych stron w Twojej witrynie.

Krok 5: Przetestuj plik robots.txt

Po zaktualizowaniu pliku robots.txt ważne jest, aby przetestować go za pomocą narzędzia Google Robots.txt Tester w Google Search Console. Narzędzie to pozwala sprawdzić, czy reguły działają zgodnie z oczekiwaniami.

Podsumowanie

Plik robots.txt to potężne narzędzie do kontrolowania, które części witryny są indeksowane przez wyszukiwarki. Poprawnie konfigurując plik robots.txt, można zapewnić, że wrażliwe lub nieistotne treści nie będą widoczne w wynikach wyszukiwania. Zawsze testuj swoje reguły, aby upewnić się, że są stosowane prawidłowo.

Sprawdź swoje umiejętności we wszystkich naszych usługach hostingowych i otrzymaj 15% zniżki!

Użyj kodu przy kasie:

Skills