Google usuwa parametr &num=100, a wpływ na SEO

5
(2)

W połowie września 2025 roku społeczność SEO zaczęła zauważać istotną zmianę: Google wyłączyło działanie parametru &num=100, który pozwalał na wyświetlenie 100 wyników wyszukiwania organicznego na jednej stronie (SERP), zamiast domyślnych 10 wyników. Ta zmiana, choć na pierwszy rzut oka techniczna i pozornie niewielka, ma duże konsekwencje dla narzędzi SEO, analityki i interpretacji danych. Poniżej szczegóły, jakie efekty już widać i jakie mogą być długofalowe.

Czym był parametr &num=100 i jak działał

Parametr &num=100 (czasem też &num=100 lub podobnie) stanowił w adresie URL wyszukiwarki Google dodatkowy element, który nakazywał przeglądarce (lub narzędziu) załadować 100 wyników organicznych jednocześnie. Umożliwiało to:

  • wydobycie znacznie większego zakresu SERP za pomocą jednej prośby HTTP / zapytania,
  • efektywniejsze zbieranie danych o pozycjach słów kluczowych w dalszych częściach wyników (np. pozycja 50, 60, 70, 80…),
  • szybką analizę wyników konkurencji i widoczności strony poza top 10.

Takie podejście było cenione przez narzędzia typu rank tracker, operatorów narzędzi SEO oraz firmy analizujące dane masowe – ponieważ jeden taki parametr znacząco redukował liczbę zapytań potrzebnych do zebrania pełnego obrazu SERP.

Co się zmieniło – wyłączenie parametru

Data i okoliczności

Zmiana została zauważona około 12-14 września 2025. To właśnie wtedy narzędzia SEO i właściciele stron zaczęli dostrzegać, że dodanie &num=100 do URL wyszukiwania nie przynosi już efektu – Google przestaje wyświetlać 100 wyników na jednej stronie.

Google potwierdziło, że parametr ten nie jest oficjalnie wspierany. W komunikatach stwierdzono, że jego działanie było przez lata nieformalne – działał, ale nie był częścią dokumentacji czy deklarowanych funkcji.

Bezpośrednie skutki dla narzędzi SEO i kosztów operacyjnych

  • Wzrost kosztów zbierania danych: Do tej pory narzędzia mogły uzyskać 100 wyników z jednego zapytania. Teraz muszą robić wiele zapytań (przez parametr np. start) – często dziesięć razy więcej zapytań, by osiągnąć te same dane.
  • Wolniejsze raportowanie: Więcej zapytań oznacza więcej czasu na zebranie i przetworzenie danych. Dasboardy rank trackerów, które prezentowały dane dla pozycji od 1 do 100, mogą być teraz mniej aktualne lub mieć opóźnienia.
  • Ograniczenia zakresu śledzenia: Niektóre narzędzia mogą zdecydować się ograniczyć śledzenie do top-20 lub top-50, bo śledzenie do pozycji 100 stanie się zbyt kosztowne lub nieefektywne.

Wpływ na dane Google Search Console (GSC)

Ta zmiana wywołała gwałtowne i łatwo zauważalne efekty w Google Search Console, co wzbudziło wiele pytań i dyskusji wśród specjalistów SEO.

Spadki liczby wyświetleń (impressions)

Właściciele wielu stron zaczęli zauważać dramatyczne spadki w liczbie impresji w raportach GSC, szczególnie w wynikach na desktopie.

Pojawiło się podejrzenie, że wcześniejsze dane były „napompowane” przez boty i narzędzia scrapingowe, które generowały impresje dla wyników dalej niż na stronie 1, bo dzięki &num=100 mogły ładować te wyniki jednym zapytaniem. Teraz te „fałszywe” lub przynajmniej bardzo mało realne impresje znikają z raportów.

Poprawa średniej pozycji (average position)

Ponieważ mniej impresji pochodzi z bardzo odległych pozycji, średnia pozycja liczona w Search Console zaczyna się poprawiać (tzn. wskazywać wyżej, czyli bliżej pozycji 1). Wynika to z faktu, że impresje z pozycji np. 80-100 nie są już wliczane, więc jeśli Twoja strona pojawia się na pozycji 15-20, to wpływ wielu impresji z dalszych pozycji nie będzie już ją ciągnął w dół.

Stabilność kliknięć i CTR

Kliknięcia (clicks) w dużej mierze pozostają bez zmian, bo użytkownicy nadal klikają, gdy widzą Twoje strony w wynikach. To co się zmienia, to stosunek kliknięć do wyświetleń, czyli CTR – może on wzrosnąć, ponieważ dominujące wyświetlenia „botowe” maleją.

Porównywanie historyczne stało się trudniejsze

Dane z okresów sprzed wyłączenia parametru &num=100 nie są już bezpośrednio porównywalne z tymi po zmianie, jeśli chodzi o impresje i średnią pozycję. To oznacza, że analizy „r/r” (rok do roku) lub „m/m” (miesiąc do miesiąca), oparte na impresjach i średniej pozycji, mogą być mylące, jeśli się nie uwzględni tego skoku technologicznego.

Szersze konsekwencje i interpretacja – co to może oznaczać długofalowo

„The Great Decoupling” pod lupą

W ostatnich miesiącach SEO-społeczność mówiła o zjawisku zwanym „The Great Decoupling” – mianowicie: liczba wyświetleń w GSC rosła, kliknięcia jednak nie nadążały, co powodowało spadek CTR, a średnie pozycje zachowywały się dziwnie. Część osób przypuszczała, że to skutek wprowadzenia przez Google funkcji AI Overviews / Generative Search, innego wyglądu wyników, nowych fragmentów i innych elementów SERP, które mogą dodawać wyświetlenia, ale nie przekładają się na kliknięcia.

Po wyłączeniu &num=100 okazało się, że wiele z tych wyświetleń mogło pochodzić od botów / scraperów – czyli, że część tej dziwnej rozbieżności była efektem technicznego artefaktu, a nie zmiany zachowania użytkowników czy algorytmu Google’a. To powoduje, że zjawisko „Great Decoupling” trzeba reinterpretować – dane wydają się być „oczyszczone”.

Zmiana w percepcji wyników SEO

Specjaliści od SEO muszą teraz inaczej podchodzić do:

  • co to znaczy „widoczność” w wynikach Google,
  • jak definiować, które pozycji w wynikach są znaczące,
  • które dane są rzeczywiście miarodajne (kliknięcia, konwersje, zasięg) vs które były sztucznie podbijane przez automatyczne zapytania.

Skutki finansowe i operacyjne

  • Narzędzia SEO prawdopodobnie podniosą ceny lub zmienią plany (np. oferując mniej pozycji, mniejszą dokładność, albo ograniczenia co do częstotliwości zbierania danych).
  • Firmy z mniejszym budżetem mogą mieć trudniej uzyskać szeroką widoczność i analizować konkurencję poza top-10 bez dużych nakładów.
  • Więcej pracy analitycznej i komunikacyjnej – trzeba tłumaczyć klientom lub decydentom, dlaczego dane spadły, skoro niekoniecznie spadła rzeczywista widoczność.

Co zrobić, żeby się dostosować

Poniżej kilka rekomendacji dla właścicieli stron, analityków SEO, agencji:

  1. Skup się na kliknięciach i konwersjach, a nie tylko na wyświetleniach. To te metryki najlepiej odzwierciedlają, jak rzeczywiście użytkownicy trafiają na stronę i czy się angażują.
  2. Zrewiduj porównania historyczne – jeśli porównujesz dane sprzed i po 12-14 września, uwzględnij, że zakres „impression inflation” przez boty został zredukowany. Może trzeba będzie przeskalować lub uwzględnić tę zmianę w interpretacji.
  3. Monitoruj średnią pozycję, ale z kontekstem – poprawa pozycji może być częściowo efektem technicznym (mniej impresji z odległych miejsc), niekoniecznie lepszego rankingu w oczach Google.
  4. Sprawdzaj dane desktop vs mobile – bo spadki impresji są silniej zauważalne na desktopie. Jeśli np. Twoje działania SEO są mocno zależne od wyników na desktop, to ta zmiana może mieć większy wpływ.
  5. Dostosuj narzędzia SEO – być może trzeba zmienić ustawienia, zakres śledzenia (np. zamiast top-100 monitorować top-20), albo współpracować z dostawcami narzędzi, by uzyskać jasność co do ich metod zbierania danych.
  6. Komunikuj zmianę swoim interesariuszom – jeśli prowadzisz raporty SEO, web analytics, marketing czy zarząd, dobrze jest pokazać, że spadki wyników w Search Console to niekoniecznie spadki realnej widoczności, tylko efekt zmiany pomiaru.

Kiedy i dlaczego Google to zrobiło

Choć Google nie podało oficjalnie pełnego uzasadnienia, dostępne analizy i dyskusje wskazują na kilka prawdopodobnych motywów:

  • Oczyszczenie danych – eliminacja „szumu” botów, które dzięki &num=100 generowały impresje dla wyników, których użytkownicy raczej nie widzieli albo nie przewijali.
  • Zmniejszenie nadużyć związanych ze scrapingiem – wiele narzędzi SEO i API używało &num=100 do masowego pobierania wyników SERP. To obciążenie dla infrastruktury, możliwe łamanie zasad Google.
  • Poprawa spójności między tym, co rzeczywiście widzi użytkownik, a tym, co rejestruje Search Console. Standardowa strona wyników pokazuje zwykle 10 wyników (lub różne formaty w zależności od urządzenia, ale nie 100). Usu­nięcie parametru pomaga lepiej wyrównać dane do faktycznego doświadczenia użytkownika.
  • Być może także przygotowanie gruntu pod dalsze zmiany w sposobach, jak Google raportuje wyniki, w kontekście AI-SERP, wyników generatywnych, fragmentów specjalnych etc.

Czy zmiana jest trwała? Co dalej

  • Na tę chwilę nie wiadomo, czy Google odwróci tę decyzję lub wprowadzi alternatywny sposób osiągania podobnych efektów.
  • Narzędzia SEO mogą wprowadzić własne obejścia, np. przyjmując mniejszy zakres wyników, albo korzystając z bardziej skomplikowanych metod, ale zawsze z większym kosztem.
  • Możliwe, że Google będzie dalej rozwijać, czy udostępniać “czystsze” dane, bardziej odporny na boty, co z punktu widzenia jakości danych będzie korzystne, ale dla osób i firm monitorujących wyniki oznacza konieczność adaptacji.

Brak parametru &num=100 w Google jest zmianą techniczną, która ma jednak znaczący wpływ na to, jak monitorujemy wyniki SEO:

  • Wartość wyświetleń / impresji w Search Console może drastycznie spaść, ale to nie koniecznie oznacza spadek realnej widoczności.
  • Średnia pozycja będzie się poprawiać (liczba będzie lepsza), głównie dlatego, że zostaną usunięte impresje z głębokich wyników, które wcześniej “ciągnęły w dół”.
  • Kliknięcia i ruch organiczny pozostaną bardziej stabilne, bo ta zmiana nie wpływa bezpośrednio na to, jak użytkownicy faktycznie wyszukują i klikają.
  • Narzędzia SEO są zmuszone do zmiany metod zbierania danych, co może oznaczać większe koszty, mniejszą częstotliwość lub głębszy zakres wyników.

Zapraszamy do oceny

5 / 5. 2