W połowie września 2025 roku społeczność SEO zaczęła zauważać istotną zmianę: Google wyłączyło działanie parametru &num=100, który pozwalał na wyświetlenie 100 wyników wyszukiwania organicznego na jednej stronie (SERP), zamiast domyślnych 10 wyników. Ta zmiana, choć na pierwszy rzut oka techniczna i pozornie niewielka, ma duże konsekwencje dla narzędzi SEO, analityki i interpretacji danych. Poniżej szczegóły, jakie efekty już widać i jakie mogą być długofalowe.
Czym był parametr &num=100 i jak działał
Parametr &num=100 (czasem też &num=100 lub podobnie) stanowił w adresie URL wyszukiwarki Google dodatkowy element, który nakazywał przeglądarce (lub narzędziu) załadować 100 wyników organicznych jednocześnie. Umożliwiało to:
- wydobycie znacznie większego zakresu SERP za pomocą jednej prośby HTTP / zapytania,
- efektywniejsze zbieranie danych o pozycjach słów kluczowych w dalszych częściach wyników (np. pozycja 50, 60, 70, 80…),
- szybką analizę wyników konkurencji i widoczności strony poza top 10.
Takie podejście było cenione przez narzędzia typu rank tracker, operatorów narzędzi SEO oraz firmy analizujące dane masowe – ponieważ jeden taki parametr znacząco redukował liczbę zapytań potrzebnych do zebrania pełnego obrazu SERP.
Co się zmieniło – wyłączenie parametru
Data i okoliczności
Zmiana została zauważona około 12-14 września 2025. To właśnie wtedy narzędzia SEO i właściciele stron zaczęli dostrzegać, że dodanie &num=100 do URL wyszukiwania nie przynosi już efektu – Google przestaje wyświetlać 100 wyników na jednej stronie.
Google potwierdziło, że parametr ten nie jest oficjalnie wspierany. W komunikatach stwierdzono, że jego działanie było przez lata nieformalne – działał, ale nie był częścią dokumentacji czy deklarowanych funkcji.
Bezpośrednie skutki dla narzędzi SEO i kosztów operacyjnych
- Wzrost kosztów zbierania danych: Do tej pory narzędzia mogły uzyskać 100 wyników z jednego zapytania. Teraz muszą robić wiele zapytań (przez parametr np. start) – często dziesięć razy więcej zapytań, by osiągnąć te same dane.
- Wolniejsze raportowanie: Więcej zapytań oznacza więcej czasu na zebranie i przetworzenie danych. Dasboardy rank trackerów, które prezentowały dane dla pozycji od 1 do 100, mogą być teraz mniej aktualne lub mieć opóźnienia.
- Ograniczenia zakresu śledzenia: Niektóre narzędzia mogą zdecydować się ograniczyć śledzenie do top-20 lub top-50, bo śledzenie do pozycji 100 stanie się zbyt kosztowne lub nieefektywne.
Wpływ na dane Google Search Console (GSC)
Ta zmiana wywołała gwałtowne i łatwo zauważalne efekty w Google Search Console, co wzbudziło wiele pytań i dyskusji wśród specjalistów SEO.
Spadki liczby wyświetleń (impressions)
Właściciele wielu stron zaczęli zauważać dramatyczne spadki w liczbie impresji w raportach GSC, szczególnie w wynikach na desktopie.
Pojawiło się podejrzenie, że wcześniejsze dane były „napompowane” przez boty i narzędzia scrapingowe, które generowały impresje dla wyników dalej niż na stronie 1, bo dzięki &num=100 mogły ładować te wyniki jednym zapytaniem. Teraz te „fałszywe” lub przynajmniej bardzo mało realne impresje znikają z raportów.
Poprawa średniej pozycji (average position)
Ponieważ mniej impresji pochodzi z bardzo odległych pozycji, średnia pozycja liczona w Search Console zaczyna się poprawiać (tzn. wskazywać wyżej, czyli bliżej pozycji 1). Wynika to z faktu, że impresje z pozycji np. 80-100 nie są już wliczane, więc jeśli Twoja strona pojawia się na pozycji 15-20, to wpływ wielu impresji z dalszych pozycji nie będzie już ją ciągnął w dół.
Stabilność kliknięć i CTR
Kliknięcia (clicks) w dużej mierze pozostają bez zmian, bo użytkownicy nadal klikają, gdy widzą Twoje strony w wynikach. To co się zmienia, to stosunek kliknięć do wyświetleń, czyli CTR – może on wzrosnąć, ponieważ dominujące wyświetlenia „botowe” maleją.
Porównywanie historyczne stało się trudniejsze
Dane z okresów sprzed wyłączenia parametru &num=100 nie są już bezpośrednio porównywalne z tymi po zmianie, jeśli chodzi o impresje i średnią pozycję. To oznacza, że analizy „r/r” (rok do roku) lub „m/m” (miesiąc do miesiąca), oparte na impresjach i średniej pozycji, mogą być mylące, jeśli się nie uwzględni tego skoku technologicznego.
Szersze konsekwencje i interpretacja – co to może oznaczać długofalowo
„The Great Decoupling” pod lupą
W ostatnich miesiącach SEO-społeczność mówiła o zjawisku zwanym „The Great Decoupling” – mianowicie: liczba wyświetleń w GSC rosła, kliknięcia jednak nie nadążały, co powodowało spadek CTR, a średnie pozycje zachowywały się dziwnie. Część osób przypuszczała, że to skutek wprowadzenia przez Google funkcji AI Overviews / Generative Search, innego wyglądu wyników, nowych fragmentów i innych elementów SERP, które mogą dodawać wyświetlenia, ale nie przekładają się na kliknięcia.
Po wyłączeniu &num=100 okazało się, że wiele z tych wyświetleń mogło pochodzić od botów / scraperów – czyli, że część tej dziwnej rozbieżności była efektem technicznego artefaktu, a nie zmiany zachowania użytkowników czy algorytmu Google’a. To powoduje, że zjawisko „Great Decoupling” trzeba reinterpretować – dane wydają się być „oczyszczone”.
Zmiana w percepcji wyników SEO
Specjaliści od SEO muszą teraz inaczej podchodzić do:
- co to znaczy „widoczność” w wynikach Google,
- jak definiować, które pozycji w wynikach są znaczące,
- które dane są rzeczywiście miarodajne (kliknięcia, konwersje, zasięg) vs które były sztucznie podbijane przez automatyczne zapytania.
Skutki finansowe i operacyjne
- Narzędzia SEO prawdopodobnie podniosą ceny lub zmienią plany (np. oferując mniej pozycji, mniejszą dokładność, albo ograniczenia co do częstotliwości zbierania danych).
- Firmy z mniejszym budżetem mogą mieć trudniej uzyskać szeroką widoczność i analizować konkurencję poza top-10 bez dużych nakładów.
- Więcej pracy analitycznej i komunikacyjnej – trzeba tłumaczyć klientom lub decydentom, dlaczego dane spadły, skoro niekoniecznie spadła rzeczywista widoczność.
Co zrobić, żeby się dostosować
Poniżej kilka rekomendacji dla właścicieli stron, analityków SEO, agencji:
- Skup się na kliknięciach i konwersjach, a nie tylko na wyświetleniach. To te metryki najlepiej odzwierciedlają, jak rzeczywiście użytkownicy trafiają na stronę i czy się angażują.
- Zrewiduj porównania historyczne – jeśli porównujesz dane sprzed i po 12-14 września, uwzględnij, że zakres „impression inflation” przez boty został zredukowany. Może trzeba będzie przeskalować lub uwzględnić tę zmianę w interpretacji.
- Monitoruj średnią pozycję, ale z kontekstem – poprawa pozycji może być częściowo efektem technicznym (mniej impresji z odległych miejsc), niekoniecznie lepszego rankingu w oczach Google.
- Sprawdzaj dane desktop vs mobile – bo spadki impresji są silniej zauważalne na desktopie. Jeśli np. Twoje działania SEO są mocno zależne od wyników na desktop, to ta zmiana może mieć większy wpływ.
- Dostosuj narzędzia SEO – być może trzeba zmienić ustawienia, zakres śledzenia (np. zamiast top-100 monitorować top-20), albo współpracować z dostawcami narzędzi, by uzyskać jasność co do ich metod zbierania danych.
- Komunikuj zmianę swoim interesariuszom – jeśli prowadzisz raporty SEO, web analytics, marketing czy zarząd, dobrze jest pokazać, że spadki wyników w Search Console to niekoniecznie spadki realnej widoczności, tylko efekt zmiany pomiaru.
Kiedy i dlaczego Google to zrobiło
Choć Google nie podało oficjalnie pełnego uzasadnienia, dostępne analizy i dyskusje wskazują na kilka prawdopodobnych motywów:
- Oczyszczenie danych – eliminacja „szumu” botów, które dzięki &num=100 generowały impresje dla wyników, których użytkownicy raczej nie widzieli albo nie przewijali.
- Zmniejszenie nadużyć związanych ze scrapingiem – wiele narzędzi SEO i API używało &num=100 do masowego pobierania wyników SERP. To obciążenie dla infrastruktury, możliwe łamanie zasad Google.
- Poprawa spójności między tym, co rzeczywiście widzi użytkownik, a tym, co rejestruje Search Console. Standardowa strona wyników pokazuje zwykle 10 wyników (lub różne formaty w zależności od urządzenia, ale nie 100). Usunięcie parametru pomaga lepiej wyrównać dane do faktycznego doświadczenia użytkownika.
- Być może także przygotowanie gruntu pod dalsze zmiany w sposobach, jak Google raportuje wyniki, w kontekście AI-SERP, wyników generatywnych, fragmentów specjalnych etc.
Czy zmiana jest trwała? Co dalej
- Na tę chwilę nie wiadomo, czy Google odwróci tę decyzję lub wprowadzi alternatywny sposób osiągania podobnych efektów.
- Narzędzia SEO mogą wprowadzić własne obejścia, np. przyjmując mniejszy zakres wyników, albo korzystając z bardziej skomplikowanych metod, ale zawsze z większym kosztem.
- Możliwe, że Google będzie dalej rozwijać, czy udostępniać “czystsze” dane, bardziej odporny na boty, co z punktu widzenia jakości danych będzie korzystne, ale dla osób i firm monitorujących wyniki oznacza konieczność adaptacji.
Brak parametru &num=100 w Google jest zmianą techniczną, która ma jednak znaczący wpływ na to, jak monitorujemy wyniki SEO:
- Wartość wyświetleń / impresji w Search Console może drastycznie spaść, ale to nie koniecznie oznacza spadek realnej widoczności.
- Średnia pozycja będzie się poprawiać (liczba będzie lepsza), głównie dlatego, że zostaną usunięte impresje z głębokich wyników, które wcześniej “ciągnęły w dół”.
- Kliknięcia i ruch organiczny pozostaną bardziej stabilne, bo ta zmiana nie wpływa bezpośrednio na to, jak użytkownicy faktycznie wyszukują i klikają.
- Narzędzia SEO są zmuszone do zmiany metod zbierania danych, co może oznaczać większe koszty, mniejszą częstotliwość lub głębszy zakres wyników.
Zapraszamy do oceny
5 / 5. 2
