Technologiczne, Gadżety, Telefony Komórkowe, Pobieranie Aplikacji

Spostrzeżenia SEO z kwietnia Johna Muellera 9Hangout dotyczący godzin pracy Google w 2023 r

Uwaga: Poniższy artykuł pomoże Ci w: Spostrzeżenia SEO z kwietnia Johna Muellera 9Hangout dotyczący godzin pracy Google w 2021 r

Podczas spotkania w godzinach pracy Centrum wyszukiwarki Google z Johnem Muellerem padło wiele ważnych pytań.

Wśród nich znajdują się pytania dotyczące aktualizacji dotyczących działania strony, innych podstawowych aktualizacji, problemów z jakością, międzynarodowych problemów związanych z SEO i wiele innych.

Czy algorytm działania strony będzie działał w czasie rzeczywistym?

Webmaster 2

Szybkie pytanie: ten algorytm zwiększania szybkości, który pojawi się w maju, chce tylko, żebyś wiedział, czy będzie to algorytm czasu rzeczywistego, czy coś w rodzaju podstawowych aktualizacji, w których będzie aktualizowany od czasu do czasu?

Johna Muellera
Nie wiem. Nie wiem tego. Zdecydowałem się jeszcze całkowicie. Częścią tego jest również ogólne opóźnienie w przesyłaniu danych. Musimy więc poczekać ten okres, aż zbierzemy wystarczającą ilość danych. Podejrzewam więc, że nie będzie to coś zoptymalizowanego pod kątem szybkości lub szybkich aktualizacji, ale raczej zapewniające jasne zrozumienie ogólnego obrazu. Domyślam się więc, że będzie to raczej powolna zmiana niż zmiana w czasie rzeczywistym.

Nasze spostrzeżenia dotyczące SEO: Algorytm działania strony nie będzie realizowany w czasie rzeczywistym

Wiemy już, że obliczenia szybkości strony składają się z dwóch elementów: ogólnych danych zebranych w ciągu ostatnich 28 dni i danych aktualnie przetwarzanych dla Twojej witryny. Po potwierdzeniu, że algorytm nie będzie aktualizowany w czasie rzeczywistym, możemy spodziewać się, że zmiany szybkości strony będą wyglądać mniej więcej tak samo i postępować zgodnie z 28-dniowym harmonogramem przeglądu danych.

Algorytm nie będzie działał w czasie rzeczywistym Panda I Pingwin. Przynajmniej nie na początku. Google mógłby w końcu włączyć Page Experience do normalnego algorytmu. Zrobili to z prawie wszystkim innym.

Webmaster 3

Cześć, John, mam kilka pytań dotyczących Core Web Vitals. Po pierwsze, niedawno zaktualizowaliśmy naszą witrynę i teraz otrzymujemy 100% wyniku w latarni morskiej. Musimy jednak wdrożyć zmiany, ponieważ liczba nieprawidłowych adresów URL w raportach Google Search Console dramatycznie wzrosła. Zatem złe adresy URL wzrosły, a nasze dobre adresy URL faktycznie spadły. Teraz zrozum różnicę między danymi laboratoryjnymi i terenowymi. Ale wydaje się trochę dziwne, że teraz uzyskujemy znacznie lepszy wynik w latarni morskiej, dane laboratoryjne 100 100% lub 100. Ale teraz nasze rzeczywiste dane terenowe wydają się być coraz gorsze. I to wydaje się trochę dziwne, że tak było, tak bardzo się poprawiliśmy. Ale tak, dane ze świata rzeczywistego wydają się być przeciwieństwem tego.

John Mueller:
Myślę, że jednym z aspektów, który należy wziąć pod uwagę, jest opóźnienie w postępowaniu sądowym, rodzaj doświadczenia użytkownika Chrome, raportowanie danych, czyli myślę, że zasadniczo trwa to 28 dni, podczas których dane są zbierane . Zasadniczo, jeśli wprowadzisz zmianę teraz i przetestujesz ją w latarni morskiej lub PageSpeed ​​Insights, na podstawie danych z Search Console zobaczysz to mniej więcej za około miesiąc. Z punktu widzenia czasu jest to trochę oddzielone. Jeśli więc dokonałeś zmiany teraz, a zaraz potem w Search Console zobaczysz, że się zmieniła, to zmiana w Search Console nie będzie powiązana ze zmianą, którą właśnie wprowadziłeś.

Nasze spostrzeżenia dotyczące SEO: nawet w przypadku korelacji dotyczącej jakości strony nie jest ona przyczyną

To interesujące pytanie. Webmaster pyta, czy wprowadzają zmianę i widzi natychmiastową zmianę w GSC, niezależnie od tego, czy ta zmiana w GSC jest wynikiem zmiany, którą właśnie wtedy wprowadzili.

John Mueller twierdzi, że rzadko się to zdarza, gdy GSC odzwierciedla to, co dzieje się w czasie rzeczywistym. Zamiast tego zmiany w GSC są całkowicie odrębne od zmian, które zachodzą w tamtym czasie.

Dlaczego nie widzimy wzrostu po 28 dniach?

Webmaster 3

Tak, jesteśmy świadomi 28-dniowego opóźnienia, ale kiedy wdrożyliśmy to ponad 20 dni temu, nadal nie zaobserwowaliśmy wzrostu wydajności.

John Mueller:
Nie wiem. Trudno powiedzieć, nie patrząc na szczegóły. To coś, co spróbuję tam zrobić, to dowiedzieć się, na którą część Core Web Vitals ma to wpływ, czy jest to coś w rodzaju Largest Contentful Paint, czy CLS, i na tej podstawie spróbuj dowiedzieć się, gdzie to może być pochodzić. Jedną z rzeczy, która zwykle zdarza się w przypadku danych laboratoryjnych i terenowych jest to, że w przypadku danych laboratoryjnych jest to w zasadzie założenie. Jest to przybliżenie tego, co według naszych systemów może wydarzyć się w terenie. Ponieważ jest tak wiele niewiadomych, które zależą trochę od Twoich użytkowników, skąd pochodzą, jakiego rodzaju urządzeń to wszystko mają, co oznacza, że ​​możesz wykorzystać dane laboratoryjne do stopniowego ulepszania, ale nie niekoniecznie widzą wyraźny związek między wynikami laboratoryjnymi a wynikami terenowymi. Nie wiem, czy to może odgrywać tu jakąś rolę.

Nasze spostrzeżenia dotyczące SEO: dane laboratoryjne a dane terenowe i ich różnice

John Mueller wspomina, że ​​w przypadku Core Web Vitals, jeśli chodzi o dane laboratoryjne i terenowe, dane terenowe są założeniem. Zakłada się, że istnieje przybliżenie tego, co według systemu Google może wydarzyć się w terenie. Z powodu tego założenia może być trochę nie tak.

Dane laboratoryjne to dane uzyskiwane w czasie rzeczywistym od rzeczywistych użytkowników korzystających z tych witryn. Dane laboratoryjne można wykorzystać do stopniowego poprawiania wyników, ale niekoniecznie będzie można ich użyć do zobaczenia wyraźnych powiązań między typami wyników w celu wprowadzenia przydatnych zmian w witrynach.

Czy wyniki podstawowych wskaźników internetowych zmieniają się w zależności od szybkości Internetu w różnych krajach?

Webmaster 3

Cóż, właściwie prowadzi to całkiem nieźle do mojego drugiego pytania, które dotyczy wyników i podstawowych wskaźników internetowych. Czy jest jakieś uwzględnienie różnych prędkości Internetu w różnych krajach? Mamy więc siedzibę w Azji Południowo-Wschodniej, w dziewięciu krajach Azji Południowo-Wschodniej, gdzie prędkość jest mniejsza, zwłaszcza w przypadku telefonów komórkowych. Na przykład w jednym z naszych krajów jest to 90. najwolniejszy kraj pod względem szybkości transmisji mobilnej. Jaki zatem ma to wpływ na wynik? Czy istnieją różne wyniki z różnych krajów? A jeśli tak nie jest, czy w niektórych naszych krajach, w naszych krajach anglojęzycznych, potencjalnie konkurujemy ze stronami internetowymi z innych krajów, na przykład na Filipinach, mamy tam wiele zachodnich witryn internetowych, OK. Dlatego wielu ich użytkowników będzie pochodzić z Ameryki, Europy itp., gdzie prędkość może być większa. I w pewnym sensie stanowili dla nich konkurencję. Dokąd przyjeżdżałem z Filipin, gdzie prędkość jest mniejsza.

John Mueller:
Nie wiem, jaka będzie ostateczna konfiguracja. Jest to coś, w przypadku gdy w danych raportu o doświadczeniach użytkowników przeglądarki Chrome znajdują się informacje o kraju. Dzięki temu moglibyśmy dowiedzieć się, skąd pochodzą głównie użytkownicy. Jednak ogólna koncepcja jest nadal taka, że ​​użytkownicy powinni mieć dobre doświadczenia. A jeśli większość Twoich użytkowników zauważy powolne działanie, niezależnie od przyczyny, zasadniczo właśnie to będzie miało zastosowanie w tym przypadku. Tak to wygląda, przynajmniej z tego, co wiem, taki jest tam ogólny punkt widzenia. To tak, jakby 90% Twoich użytkowników pochodziło z lokalizacji, które działają wolno. Zasadniczo 90% Twoich użytkowników nie ma optymalnego doświadczenia z Twoją witryną, więc to zostanie wzięte pod uwagę.

Nasze spostrzeżenia dotyczące SEO: Jakość strony jest nadal krytyczna, niezależnie od szybkości Internetu

To doskonały moment, aby wspomnieć o tym, co niezmiennie powtarzał John Mueller: że komfort korzystania ze strony nadal będzie miał kluczowe znaczenie, niezależnie od szybkości Internetu w pozostałych częściach świata.

Można to łatwo osiągnąć, zapewniając szybkie wyniki Core Web Vitals dla szerokiego grona użytkowników, platform i urządzeń, nie koncentrując się tylko na własnych odbiorcach.

Chcesz, aby projekt Twojej witryny był wszechstronny i dostosowany do potrzeb każdego potencjalnego użytkownika, a nie tylko ustalany priorytetowo na podstawie odbiorców w Google Analytics.

Pomysł polega na kompleksowej kompatybilności między platformami. Zamiast priorytetów. Najłatwiej to osiągnąć, skupiając się na oszczędnym, czystym i przeciętnym kodzie i zapewniając responsywny projekt. Preferowany jest także kod zgodny z W3C i ważny. Google wielokrotnie powtarzał, że nie jest potrzebny żaden konkretny typ kodu, jednak prawidłowy kod W3C stwarza szersze możliwości w zakresie kompatybilności między platformami, co zawsze jest miłym zaznaczeniem pola dla wygody użytkownika.

John Mueller: Ruch z poleceń nie oznacza lepszej pozycji w rankingu

Webmaster 4:

Cześć John. Moje pytanie dotyczy ruchu z poleceń. W jaki sposób ruch z witryn odsyłających poprawia ranking wyszukiwania określonej strony, jeśli strona ta jest klasyfikowana według określonego słowa kluczowego?

John Mueller:
Nie? Nie. Czasami mimo wszystko przydatne jest zwiększenie ruchu na stronach, ale nie bierzemy tego pod uwagę przy ustalaniu rankingu. Przede wszystkim dlatego, że możesz mieć wiele różnych źródeł ruchu, co niekoniecznie oznacza, że ​​Twoja strona jest dobra. Na przykład, jeśli wychodzisz i wydajesz dużo pieniędzy na reklamy w mediach społecznościowych, możesz sprawić, że wiele osób odwiedzi Twoją witrynę. Ale to, że przychodzi dużo osób, nie oznacza, że ​​powinniśmy zajmować wyższą pozycję w wynikach wyszukiwania.

Nasze spostrzeżenia dotyczące SEO: Ruch z witryn polecających nadal nie jest brany pod uwagę przy rankingu

Zasada jest ogólnie prosta: ciągłe kierowanie ruchu z witryn polecających do Twojej witryny nie przynosi żadnych korzyści dla SEO. Chociaż jest to miłe dla liczb, zwłaszcza gdy dzielisz się raportami z klientem, tak naprawdę nie ma powodu, aby mieć to SEO i nie poprawi to twoich rankingów.

Jak efektywnie wykorzystywać treści generowane przez użytkowników?

Webmaster 5:

Czy mogę użyć opinii użytkowników pod moimi artykułami na temat zdrowia? Czy treść wygenerowana przez użytkowników wpłynie na autorytet moich artykułów?

John Mueller:
Możesz używać takich treści generowanych przez użytkowników. Ważną częścią, o której należy pamiętać, jest to, że zasadniczo patrzymy na Twoją stronę jako całość. A jeśli ogólnie rzecz biorąc wygląda na to, że Twoja strona ma niższą jakość ze względu na treści generowane przez użytkowników, wówczas ogólnie uznalibyśmy, że Twoja strona jest gorszej jakości. Zatem mniej chodzi o to, czy są to treści generowane przez użytkowników, czy nie? I co więcej, czy strona jest ogólnie dobra, czy nie jest aż tak dobra?

Nasze spostrzeżenia dotyczące SEO:

Algorytmy Google sprawdzają całą stronę. Nie sprawdzają, w jaki sposób każdy element treści jest wykorzystywany indywidualnie.

Jeśli Twoja strona wygląda na gorszą jakość, algorytmy ocenią ją jako stronę o niższej jakości.

Czy potrzebujesz pliku mapy witryny specyficznej dla kraju?

Webmaster 6:

Dziękuję, John. Mam pytanie dotyczące międzynarodowej mapy witryny. Dlatego rada dla webmasterów jest taka, że ​​posiadanie oddzielnej międzynarodowej mapy witryny wydaje się pomocne. Ale tak naprawdę mówi się o tym w połączeniu ze znacznikami języka hreflang itp. Zatem nasza witryna – ta nowa – jest globalna. Dzielimy to według krajów. Ale to wszystko jest po angielsku. Ale czy posiadanie mapy witryny XML na poziomie kraju jest nadal pomocne podczas indeksowania, czy też nie ma to znaczenia, dopóki nie osiągniesz 50–100 000 adresów URL?

John Mueller:
Tak, niekoniecznie potrzebujesz pliku mapy witryny konkretnego kraju. Myślę, że w przypadku treści specyficznych dla kraju lub treści zlokalizowanych, jeśli używasz hreflang, możesz umieścić to w pliku mapy witryny lub możesz umieścić to w nagłówku strony. Ale tak naprawdę nie rozróżniamy źródła adnotacji hreflang. Zasadniczo strona hreflang to część, która jest dla nas istotna i dotyczy sposobu podziału rzeczy na mapy witryn. To zależy całkowicie od Ciebie. Niektórzy dzielą to na logiczne sekcje, niektórzy według kraju, a niektórzy po prostu, nie wiem, dzielą to alfabetycznie. To całkowicie zależy od Ciebie.

Nasze spostrzeżenia dotyczące SEO: plik mapy witryny specyficznej dla kraju nie jest potrzebny

Nie potrzebujesz pliku mapy witryny specyficznej dla kraju. Nie poprawi to rankingów w ten czy inny sposób. Używaj go w sposób, który uważasz za najlepszy.

Czy witryny przeznaczone wyłącznie na komputery stacjonarne podlegają indeksowaniu w oparciu o urządzenia mobilne?

Webmaster 7:

Jeśli nasza witryna jest przeznaczona wyłącznie dla użytkowników komputerów stacjonarnych i może np. umożliwiać pobieranie sterowników, czy Google nadal będzie korzystać z indeksowania w pierwszej kolejności na urządzeniach mobilnych?

John Mueller:
Tak.

Nasze spostrzeżenia dotyczące SEO: rozwiązania wyłącznie na komputery stacjonarne nie mają znaczenia

Nawet jeśli Twoja witryna jest rozwiązaniem przeznaczonym wyłącznie dla komputerów stacjonarnych i dla urządzeń mobilnych nie ma istniejącego odpowiednika tej funkcji dla komputerów stacjonarnych, tak, Google nadal będzie korzystać z indeksowania zoptymalizowanego pod kątem urządzeń mobilnych jako priorytetowego indeksowania.

Jaka jest różnica między aktualizacjami podstawowymi a aktualizacją przeglądu produktu?

Webmaster 8:

Jaka jest różnica między aktualizacjami podstawowymi a aktualizacją przeglądu produktu? Czy to działa w podobny sposób? Czy jest jakaś różnica, ponieważ aktualizacja recenzji produktów uwzględnia ogólnie zapytania dotyczące recenzji i artykułów z listy najlepszych produktów?

Johna Muellera
Nie wiem jak ująć różnicę. To znaczy, z naszego punktu widzenia istnieją różne algorytmy, które próbują patrzeć na różne rzeczy. Zwykle podstawowe aktualizacje dotyczą ogólnie wszystkich kwestii związanych z witrynami internetowymi. Ta konkretna aktualizacja jest naprawdę bardziej skupiona na rodzajach witryn z recenzjami produktów lub na treściach z recenzjami produktów. To mniej więcej tak — patrzą na witryny ogólnie w szerokim ujęciu, obie, ale patrzą na różne aspekty. Mogę sobie wyobrazić, że w pewnym momencie ten algorytm recenzji produktów stanie się częścią naszego normalnego rankingu wyszukiwania w Internecie i nie będzie powiązany na przykład z konkretnymi rodzajami stron.

Ale z jakiegoś powodu postanowili wdrożyć to trochę osobno.

Czy podstawowe funkcje sieciowe i fragmenty Google zostaną udostępnione w tym samym czasie? A może fragmenty Google już się rozpoczęły? Już? Nie wiem. Założę się, że Barry wiedziałby, gdyby wprowadzono funkcję indeksowania fragmentów. zdaje się, indeksowanie rozpoczęło się, jak sądzę, w styczniu.

Nasze spostrzeżenia dotyczące SEO: podstawowe aktualizacje są szerokie, aktualizacja recenzji produktów jest szczegółowa

Podstawowe aktualizacje są szersze i obejmują one ogólne problemy z jakością witryny. Nie obejmują one konkretnych typów atrybutów witryn internetowych.

Aktualizacja recenzji produktów dotyczy jednak określonych typów elementów witryny, takich jak recenzje produktów i recenzje usług. Celem są ogólnie recenzje o niższej jakości i prawdopodobnie nie da się uniknąć stwierdzenia: „ten produkt jest niesamowity!” już jednozdaniowe recenzje.

Czy eksplodujące strony wyszukiwania będą miały negatywny wpływ na witrynę?

Webmaster 9:

Na naszej stronie internetowej mamy 100 białych etykiet, które są kopiami strony głównej i są one zamknięte tagiem X-robots, noindexed, ze względu na ograniczenia techniczne. Wszystkie strony mają metatagi HTML robotów ustawione jako indeks, obserwuj. W ciągu ostatniego tygodnia dodaliśmy w Google Search Console ponad 84 miliony stron jako wykluczone, ale zablokowane przez roboty, a liczba ta stale rośnie o miliony. Czy przyniesie to jakieś negatywne skutki dla witryny? Wygląda na to, że tag X-robots nie jest przestrzegany, mimo że dokumentacja wyraźnie stwierdza, że ​​powinien on mieć pierwszeństwo przed metatagiem robots. Co powinniśmy zrobić, aby powstrzymać Googlebota od ciągłego indeksowania automatycznie generowanych stron wyszukiwania?

John Mueller:
Tak, więc myślę, że należy pamiętać o dwóch aspektach. Jednym z nich jest noindex, metatag robots lub tag X-robots, który jest zasadniczo specyficzny dla indeksowania i nie jest czymś, co uniemożliwiałoby indeksowanie. W szczególności musimy najpierw przeszukać stronę, aby zobaczyć noindex.

Z tego powodu przeszukujemy wiele tych stron tylko po to, by zobaczyć „Och, właściwie nie ma indeksu, więc możemy go usunąć”. A szczególnie na początku, gdy zaczniemy widzieć takie rzeczy w witrynie, prawdopodobnie przeszukamy mnóstwo treści i zobaczymy, że to wszystko nie jest indeksem. Zwykle z czasem nasze systemy zdają sobie sprawę, że indeksowanie tych konkretnych wzorców adresów URL nie prowadzi do braku możliwości zaindeksowania treści, dlatego ograniczymy indeksowanie tych konkretnych wzorców adresów URL.

To coś, co ułożyło się samoistnie. Ale nadal musimy najpierw przeszukać wszystkie te wzorce. A jeśli indeksowanie stanowi dla Ciebie problem, z jednej strony możesz użyć pliku robots.txt, aby całkowicie zablokować indeksowanie tych stron. Trudnym aspektem pliku robots.txt jest to, że niekoniecznie uniemożliwia on indeksowanie. Zatem w przypadku pliku robots.txt nie moglibyśmy wyświetlić strony.

Nie wiedzielibyśmy też, że ze stroną powiązany jest tag X-robots z indeksem noindex. Możliwe więc, że nadal będziemy indeksować te strony bez treści. W praktyce. Oznacza to, że jeśli wykonasz zapytanie w witrynie dotyczące tych adresów URL, mogą one zostać wyświetlone bez żadnego fragmentu.

Nasze spostrzeżenia dotyczące SEO: Google indeksuje wzorce adresów URL, aby określić możliwość indeksowania witryny

Aby określić możliwość indeksowania konkretnej witryny, Google przeszuka wzorce adresów URL i dokładnie określi, co jest dozwolone.

Jeśli w witrynie adresy URL kategorii są zablokowane i nie są indeksowane, gdy Google zaindeksuje je wszystkie i uzna, że ​​nie nadają się one do zaindeksowania, nie będzie ich ponownie indeksować.

Godziny pracy Google, centrum wyszukiwania Johna Muellera, Hangouty

Przypominamy, że Hangouty dotyczące godzin pracy centrali wyszukiwarki Google Johna Muellera można znaleźć na stronie urzędnika Kanał YouTube Centrum wyszukiwarki Google.

Możesz tam przeglądać wiele wcześniejszych spotkań, a także spotkania z innymi pracownikami Google, takimi jak Martin Splitt. Prowadzi hangouty omawiające SEO JavaScript.

Jeśli w jakikolwiek sposób interesujesz się SEO, wczoraj jest czas na subskrypcję i nadążanie za nimi.

Table of Contents