Podczas hangoutu Johna Muellera, który odbył się 17 września 2021 r., podczas części z pytaniami i odpowiedziami, jeden z webmasterów miał wątpliwości dotyczące ponownego grupowania około 30 000 stron w jego witrynie.
Spowodowało to wzrost średniego LCP dla tych stron o około 0,9 sekundy, mimo że wszystkie były o około 2,5 sekundy poniżej progu.
Webmaster szukał informacji, jak pomóc mu w tworzeniu większej liczby stron poniżej progu ładowania 2,5 sekundy.
John wyjaśnił, że Google nie ma jasnej ani dokładnej definicji sposobu grupowania. Jest to coś, co ewoluuje z biegiem czasu i zależy od posiadanych danych.
Jeśli mają dużo danych dla różnych rodzajów stron, łatwiej im będzie określić, w jaki sposób przeprowadzą grupowanie tych stron.
Pytanie i odpowiedź pojawiają się w 35:40 minucie filmu:
John Mueller 17.09.2021 Transkrypcja Hangouta
Jana 35:40 (Pytanie)
Następne pytanie. Mam tutaj: Google niedawno przegrupował 30 000 stron w naszej witrynie, które są zauważalnie różnymi stronami pod względem podstawowych wyników tytułów internetowych.
Dzięki temu średni LCP dla tych stron wzrósł do 3,4 sekundy, pomimo faktu, że przed przegrupowaniem nasze strony produktów trwały średnio 2,5 sekundy. Pracujemy nad tym, aby te strony znajdowały się 2,5 sekundy poniżej progu, ale nasza taktyka wydaje się obecnie zbyt nieistotna, aby doprowadzić nas do wyniku, który musimy osiągnąć. Czy ustala się grupowanie, a następnie oblicza się średnią ocen, czy też oblicza się wynik, a następnie ustala się grupowanie? Pomoże nam to ustalić, czy strony produktów trwające krócej niż 2,5 sekundy pomogą rozwiązać problem, czy nie.
Jana 36:29 (Odpowiedź)
Tak więc rozumiem grupowanie i ogólnie rzecz biorąc, nie mamy żadnej jasnej ani dokładnej definicji tego, jak robimy grupowanie, ponieważ jest to coś, co musi ewoluować z czasem, w zależności od ilości danych, którymi dysponujemy nasza strona internetowa. Jeśli więc mamy dużo danych dla wielu różnych rodzajów stron w witrynie internetowej, systemom znacznie łatwiej jest stwierdzić, że grupowanie będzie nieco bardziej szczegółowe niż tak zgrubne jak poprzednio.
Natomiast jeśli nie mamy dużo danych, może dojść nawet do sytuacji, w której potraktujemy całą witrynę jako jedną grupę. To więc jedna rzecz. Inną rzeczą jest to, że dane, które zbieramy, opierają się na danych terenowych, widać to również w Search Console, co oznacza, że nie chodzi o to, że bierzemy średnią z poszczególnych stron i po prostu uśredniamy je według liczby stron.
Ale raczej w praktyce byłoby to raczej średnia ważona ruchu w tym sensie, że niektóre strony będą miały znacznie większy ruch i będziemy mieli na nich więcej danych, a inne strony będą miały mniejszy ruch i wygraliśmy nie mam tam tak dużo danych. Może to być coś, w czym widzisz tego rodzaju różnice. Jeśli wiele osób odwiedza Twoją stronę główną, a niewiele osób odwiedza poszczególne produkty, może się zdarzyć, że waga tej strony głównej będzie nieco wyższa tylko dlatego, że mamy więcej danych.
Więc w tym kierunku bym poszedł. W praktyce oznacza to, że zamiast skupiać się tak bardzo na poszczególnych stronach, raczej przyjrzę się takim rzeczom, jak Google Analytics lub inne narzędzia analityczne, aby dowiedzieć się, które strony lub które typy stron generują duży ruch.
Następnie optymalizując te strony, zasadniczo próbujesz poprawić komfort korzystania z Twojej witryny. I to jest coś, co staralibyśmy się uzyskać w celu oceny podstawowych wskaźników sieciowych.
Jana 38:34
Zasadniczo mniej jest uśredniania liczby stron, a więcej uśredniania ruchu tego, co ludzie faktycznie widzą, odwiedzając Twoją witrynę. Myślę, że dotyczy to również drugiego pytania, na przykład jakiej logiki używa Google do grupowania tych stron? Zasadniczo chodzi o to, że przede wszystkim musimy mieć dane. A jeśli nie mamy danych, danych terenowych, które moglibyśmy tam wykorzystać, to nie możemy w pewnym sensie grupować stron w bardziej szczegółowy sposób.