Technologiczne, Gadżety, Telefony Komórkowe, Pobieranie Aplikacji!

Google wyjaśnia, dlaczego adresy URL parametrów są indeksowane

Google wyjaśnia, dlaczego adresy URL parametrów są indeksowane

Podczas hangouta jeden ze specjalistów ds. SEO zapytał Johna Muellera w przesłanym segmencie pytań i odpowiedzi o to, dlaczego Google indeksuje adresy URL parametrów.

Pytanie brzmiało: dlaczego adresy URL parametrów trafiają do indeksu Google, mimo że wykluczono je z indeksowania za pomocą pliku robots.txt i ustawień parametrów w Google Search Console?

Jak ponownie usunąć adresy URL parametrów z indeksu, nie narażając kanonicznych adresów URL?

John wyjaśnił, że prawdopodobnie istnieje ogólne założenie, że adresy URL parametrów są szkodliwe dla witryny internetowej.

Nie o to chodzi. Zdecydowanie nie jest więc tak, że musisz naprawić zaindeksowane adresy URL swojej witryny, aby pozbyć się wszystkich adresów URL parametrów.

Z tej perspektywy John postrzegałby to jako coś, co polega na udoskonalaniu witryny, aby była lepsza. Ale nie jest to coś, co jest krytyczne.

Jeśli chodzi o plik robots.txt i narzędzie do obsługi parametrów, zazwyczaj narzędzie do obsługi parametrów jest miejscem, w którym można wykonać te czynności.

John uważa, że ​​narzędzie do obsługi parametrów jest nieco trudne do znalezienia i trudniejsze w użyciu dla większości ludzi.

Dlatego osobiście starałby się tego uniknąć.

Zamiast tego użyj bardziej skalowalnego podejścia i pliku robots.txt. Możesz jednak używać go w Google Search Console.

Dzięki plikowi robots.txt uniemożliwiasz indeksowanie tych adresów URL, ale nie uniemożliwiasz ich indeksowania. Oznacza to, że jeśli wykonasz coś w rodzaju site: zapytanie o te adresy URL, jest wysoce prawdopodobne, że nadal znajdziesz te adresy URL w indeksie, nawet bez indeksowania samej treści.

Dzieje się to mniej więcej w 30:31 momencie filmu.

Transkrypcja Hangouta Johna Muellera

Jana (zadane pytanie) 30:31
Następnie pytanie o adresy URL parametrów. Dlaczego adresy URL parametrów trafiają do indeksu Google, mimo że wykluczyliśmy je z indeksowania za pomocą pliku robots.txt i ustawień parametrów w Search Console? Jak ponownie usunąć adresy URL parametrów z indeksu, bez narażania kanonicznych adresów URL?

Jana (odpowiedź) 30:49
Myślę więc, że panuje tutaj ogólne założenie, że adresy URL parametrów są szkodliwe dla witryny internetowej. I tak nie jest. Zdecydowanie nie jest więc tak, że musisz naprawić zaindeksowane adresy URL swojej witryny, aby pozbyć się wszystkich adresów URL parametrów. Z tego punktu widzenia postrzegałbym to jako coś w rodzaju dopracowania witryny internetowej, aby była trochę lepsza. Nie jest to jednak coś, co określiłbym jako krytyczne.

Jeśli chodzi o plik robots.txt i narzędzie do obsługi parametrów, zazwyczaj narzędzie do obsługi parametrów jest miejscem, w którym można wykonać te czynności. Mam wrażenie, że narzędzie do obsługi parametrów jest trochę trudne do znalezienia i trudne w użyciu dla ludzi. Dlatego osobiście starałbym się tego uniknąć i zamiast tego zastosować bardziej skalowalne podejście w pliku robots.txt. Możesz jednak używać go w Search Console.

Za pomocą pliku robots.txt zasadniczo uniemożliwiasz indeksowanie tych adresów URL, nie uniemożliwiasz ich indeksowania. A to oznacza, że ​​jeśli wykonasz na przykład zapytanie w witrynie dotyczące tych konkretnych adresów URL, jest bardzo prawdopodobne, że nadal znajdziesz te adresy URL w indeksie, nawet bez indeksowania samej treści. Przyjrzałem się też założonemu przez Ciebie wątku na forum i jest świetny. Ale tam wykonujesz także coś w rodzaju fantazyjnego zapytania w witrynie, w którym pobierasz adresy URL konkretnych parametrów.

I to jest coś, gdy patrzysz na adresy URL blokowane przez plik robots.txt, to moim zdaniem jest to trochę mylące, ponieważ możesz je znaleźć, jeśli ich szukasz. Nie oznacza to jednak, że powodują one jakiekolwiek problemy ani że istnieje jakikolwiek problem, który zwykły użytkownik zauważyłby w wynikach wyszukiwania. Więc rozwińmy trochę kwestię, czy na tych stronach znajduje się jakieś hasło, dla którego chcesz, żeby Cię znaleziono.

Masz jedną wersję tych stron, którą można indeksować i przeszukiwać. I kolejna wersja strony, której nie można zaindeksować, w której po prostu zaindeksowaliśmy ten adres URL. Jeśli ktoś wyszukuje ten termin, prawie zawsze wyświetlamy stronę, którą faktycznie przeszukaliśmy i zaindeksowaliśmy. A strona, którą teoretycznie również zaindeksowaliśmy, ponieważ tak jest, jest zablokowana przez plik robots.txt i teoretycznie może tam również znajdować się ten termin.

Pokazywanie tego w wynikach wyszukiwania nie miałoby większego sensu, ponieważ nie mamy zbyt dużego potwierdzenia, że ​​pasuje ono do tego konkretnego zapytania. Z tego punktu widzenia w przypadku zwykłych zapytań ludzie nie zobaczą tych automatycznych adresów URL. Co więcej, jeśli ktoś wyszuka dokładnie ten adres URL lub wykona zapytanie w konkretnej witrynie w celu uzyskania tych parametrów, wówczas zobaczy te strony.

Jeśli problemem jest to, że te strony można znaleźć w wynikach wyszukiwania, użyłbym w tym celu narzędzia do usuwania adresów URL, jeśli to możliwe, lub musiałbyś zezwolić na indeksowanie, a następnie użyć dyrektywy o braku indeksu, dyrektywy robots.txt, aby to zrobić powiedz nam, że nie chcesz, aby te strony były indeksowane. Ale znowu, w większości, nie postrzegałbym tego jako problemu. Nie jest to coś, co trzeba naprawić w odniesieniu do indeksowania. To nie jest tak, że mamy ograniczenie liczby stron, które indeksujemy w ramach witryny internetowej. Zasadniczo widzieliśmy link do tych linków, nie wiemy, co tam jest, ale zindeksowaliśmy ten adres URL, gdyby ktoś specjalnie go szukał.