Technologiczne, Gadżety, Telefony Komórkowe, Pobieranie Aplikacji!

John Mueller odpowiada, czy podstawowe wskaźniki internetowe mają ogólny wpływ na witrynę

John Mueller odpowiada, czy podstawowe wskaźniki internetowe mają ogólny wpływ na witrynę

Podczas hangouta jeden ze specjalistów ds. SEO zapytał Johna Muellera o podstawowe wskaźniki internetowe i czy może to mieć wpływ na ogólną pozycję witryny w wynikach wyszukiwania.

Profesjonalista zapytał Johna: Dlatego też, tak jak zrobiłby to każdy inny, priorytetowo traktują strony z największą liczbą wyszukiwań w celu ulepszenia produktów.

Hipotetycznie, gdyby mieli podzbiór stron ze słabym LCP lub CLS, powiedzmy strony z filmami w witrynie, które nie są głównymi, drugorzędnymi, a nawet trzeciorzędnymi czynnikami powodującymi ruch w wynikach wyszukiwania, kilka stron ze złymi podstawowymi wskaźnikami sieciowymi mogłoby faktycznie przeciągnąć Usiądź?

John wyjaśnił, że zwykle nie stanowi to problemu. Jego zdaniem są tu dwa aspekty. Z jednej strony w przypadku Core Web Vitals Google bada próbkę ruchu na tych stronach, co odbywa się za pośrednictwem raportu na temat doświadczenia użytkownika przeglądarki Chrome (zwanego również raportem CRUX).

To część ruchu na Twojej stronie.

Oznacza to, że Google najczęściej sprawdza strony, które są najczęściej odwiedzane.

Jeśli masz w witrynie losowe strony, na które nikt nigdy nie zagląda i które działają naprawdę wolno, nie spowodują one spowolnienia Twojej witryny – i odwrotnie.

Gdyby te losowe strony były naprawdę szybkie, nie podnosiłyby również Twojej witryny.

Nawet jeśli jest wiele przypadkowych stron i nie generują one dużego ruchu, Google tak naprawdę się nimi nie przejmuje.

Pomysł jest taki, że najważniejsze rzeczy, które ludzie widzą, powinny zapewniać dobre wrażenia użytkownika. Jeśli większość ludzi widzi określoną część Twojej witryny, Google będzie chciał się na niej skoncentrować.

Inną sprawą jest aktualizacja jakości strony – w zależności od ilości danych o Twojej witrynie Google może podzielić je na różne sekcje. Próbują to osiągnąć, analizując, które strony w witrynie są podobne.

Może to być według typu szablonu lub czegoś w tym rodzaju.

Oznacza to, że Google widzi szablon przeznaczony głównie dla witryny e-commerce, a wszystkie strony produktów działają naprawdę szybko.

Być może mają wystarczająco dużo danych, aby spojrzeć na strony produktów osobno, wtedy mogą potraktować tę grupę stron osobno.

Następnie w witrynie znajdują się różne rodzaje stron, na których dane mogą być nieco powolne i można na nich powiedzieć: „Cóż, ten typ strony jest wolniejszy niż inne”.

Tam jest druga część.

Dopóki Google ma wystarczającą ilość danych dla określonego typu strony, prawdopodobnie będzie to miało wpływ na podstawowe wskaźniki internetowe i aktualizację jakości strony.

Dzieje się to mniej więcej w 8:29 minucie filmu.

Transkrypcja Hangouta Johna Muellera

Profesjonalista SEO 2 8:29
Drugie pytanie dotyczy Core Web Vitals. Nadajemy priorytet stronom o wysokiej liczbie wyszukiwań w celu ulepszenia produktów, tak jak zrobiłby to każdy inny. Czy podzbiór stron ze słabym LCP lub CLS, powiedzmy tylko strony z filmami w witrynie, które nie są głównymi, drugorzędnymi lub nawet trzeciorzędnymi stronami generującymi ruch z wyszukiwania w witrynie, może mieć wpływ na resztę ogólnych podstawowych wskaźników internetowych witryny wynik?

Mam na myśli to, czy grupa złych stron z niewielkim ruchem związanym z wyszukiwaniem w ogólnym ujęciu może rzeczywiście wpłynąć na sytuację – wiesz, tak, obniżyć ogólny wynik witryny? Czy musimy nadać priorytet tym złym stronom, nawet jeśli nie są to strony o dużym natężeniu ruchu?

Jana 9:12
Tak. Zwykle nie stanowiłoby to problemu. Dlatego myślę, że są tu dwa aspekty. Z jednej strony w przypadku Core Web Vitals przyglądamy się próbce ruchu na tych stronach, co odbywa się za pośrednictwem funkcji „Nie znam” raportu o doświadczeniach użytkowników przeglądarki Chrome. Wydaje mi się, że jest to udokumentowane gdzieś po stronie Chrome. Zasadniczo jest to jednak część ruchu w Twojej witrynie.

Oznacza to, że w większości przypadków będziemy najczęściej przeglądać strony, które cieszą się największą liczbą odwiedzin. Jeśli więc masz w witrynie losowe strony, na które nikt nigdy nie zagląda i które działają naprawdę wolno, nie będą one powodować ciągnięcia witryny w dół i na odwrót. Gdyby te losowe strony były naprawdę szybkie, nie podnosiłyby Twojej witryny.

Nawet jeśli jest to wiele przypadkowych stron, jeśli ogólnie nie generują one dużego ruchu, to tak naprawdę nie przejmujemy się tym. Pomysł jest taki, że rzeczy, które ludzie widzą, powinny, nie wiem, zapewniać użytkownikom dobre wrażenia. Jeśli więc większość ludzi widzi określoną część Twojej witryny, to na tej części chcemy się w pewnym sensie skupić.

Inną sprawą jest aktualizacja jakości strony, w zależności od tego, ile danych mamy na temat witryny, możemy podzielić ją na różne sekcje. Staramy się to osiągnąć, analizując, które strony w witrynie są zasadniczo podobne. Może to być coś w rodzaju szablonu lub czegoś w tym rodzaju.

Co oznacza, że ​​jeśli zobaczymy, że wszystkie, nie wiem, na przykład w przypadku witryny handlu elektronicznego, wszystkie strony produktów są naprawdę szybkie. Być może mamy wystarczająco dużo danych, aby przyjrzeć się stronom produktów osobno, wtedy moglibyśmy potraktować tę grupę stron osobno.

A jeśli w witrynie istnieje inny rodzaj strony, która zawiera wystarczającą ilość danych, i jest ona dość powolna, wtedy powiemy: Cóż, ten rodzaj strony jest wolniejszy. Więc to jest jakby druga część. Jeśli masz stronę, która działa bardzo wolno i możemy mieć wystarczającą ilość danych, aby ten rodzaj strony mógł zrozumieć, cóż, to jest tylko ta część witryny, to właśnie na tę część będą miały wpływ podstawowe wskaźniki internetowe i aktualizacja wyglądu strony.

Profesjonalista SEO 2 11:33
Rozumiem. Będzie więc odizolowany od typu zawartości. Tak, lub szablon treści.

Jana 11:38
Dokładnie. To zależy od tego, jaki ruch generują te strony.

Profesjonalista SEO 2 11:43
Dziękuję bardzo.