Usunięcie parametru &num=100 w Google

num=100

Parametr &num=100 to element adresu URL wyszukiwarki Google, który pozwalał wyświetlić 100 wyników wyszukiwania na jednej stronie (domyślnie Google pokazuje 10 wyników na stronę). Była to funkcja ceniona przez zaawansowanych użytkowników i specjalistów SEO, ponieważ umożliwiała szybkie przejrzenie szerszego zakresu wyników bez ciągłego klikania „Następna strona.

W przeszłości Google oferowało podobną opcję w ustawieniach wyszukiwania – można było ustawić 20, 50 czy 100 wyników na stronę – jednak w ostatnich latach opcja ta została ukryta lub usunięta z interfejsu użytkownika. Mimo to do września 2025 nadal możliwe było ręczne dopisanie &num=100 do adresu wyników, co stanowiło pewnego rodzaju “obejście” dla power-userów, pozwalające zobaczyć do 100 wyników jednocześnie.


Festiwal SEO 2025 Katowice

Parametr num=100 był również szeroko wykorzystywany w SEO. Narzędzia do analizy pozycji i widoczności stron w Google (rank trackery, platformy do researchu słów kluczowych itp.) używały tego parametru, aby pobrać za jednym razem pierwszą setkę wyników wyszukiwania dla danej frazy. Pozwalało to ograniczyć liczbę zapytań do API czy botów – zamiast 10 oddzielnych wywołań (po 10 wyników), jedno zapytanie mogło zwrócić Top 100 wyników, co było wydajne i przydatne przy szerokich analizach konkurencji czy badań słów kluczowych.

Na czym polega zmiana i kiedy nastąpiła?

W połowie września 2025 r. społeczność SEO zaobserwowała istotną zmianę w działaniu wyszukiwarki Google – parametr &num=100 przestał być respektowany przez Google. Innymi słowy, nie ma już możliwości wymuszenia wyświetlenia 100 wyników na stronę. Pierwsze sygnały pojawiły się ok. 11–12 września, kiedy to niektórzy użytkownicy zauważyli, że dodanie num=100 do URL raz działa, a raz nie działa.

Zachowanie to było niestabilne (u części osób zalogowanych do konta Google parametr był ignorowany, podczas gdy wylogowani mogli jeszcze zobaczyć 100 wyników; u innych odwrotnie), co sugerowało, że Google testuje stopniowe wyłączenie tej funkcji. W ciągu kilku dni testy przerodziły się w pełne wdrożenie – około 14 września 2025 funkcja została całkowicie wyłączona dla wszystkich użytkowników.

Branżowy serwis PPC Land odnotował, że Google oficjalnie wycofał parametr n=100 właśnie 14 września 2025, co zmusiło narzędzia SEO do natychmiastowych zmian w sposobie pobierania danych.

W praktyce oznacza to, że nie da się już uzyskać 100 wyników na jednej stronie Google ani poprzez ustawienia, ani poprzez modyfikację URL. Niezależnie od tego, co wpiszemy, Google będzie prezentować wyniki w domyślnych paczkach (na ogół po 10 na stronę) i ignoruje dodatkowy parametr. Jest to potwierdzona zmiana – na forum pomocy Google informowano użytkowników, że opcja dostosowania liczby wyników została usunięta i nie można już wymusić poprzedniego działania (wcześniej maksymalnie 100 wyników na stronę).

Warto tu wspomnieć o kontekście interfejsu: Google od dawna eksperymentuje ze sposobem prezentacji wyników. W 2022 roku wprowadzono tzw. ciągłe przewijanie (continuous scroll) na desktopie, gdzie kolejne strony wyników ładowały się automatycznie podczas przewijania, zamiast tradycyjnego „stronicowania” – jednak w 2024 częściowo z tego wycofano się, wracając do klasycznego podziału na strony.

Jeszcze wcześniej, bo około 2018 roku, Google usunął z ustawień możliwość wyboru liczby wyników na stronę, co również wskazywało kierunek odchodzenia od takiej funkcjonalności. Obecne wyłączenie &num=100 jest więc kolejnym etapem upraszczania SERP – Google zdaje się preferować jednolite doświadczenie użytkownika (z domyślną paginacją lub przewijaniem ciągłym) zamiast dawania niszowej grupie userów kontroli nad liczbą wyników na stronę. Dla przeciętnego użytkownika zmiana ta może nawet pozostać niezauważona, ale dla branży SEO i power-userów jest bardzo odczuwalna.

Skutki usunięcia parametru num=100

Usunięcie parametru &num=100 ma szereg konsekwencji, szczególnie w obszarach związanych z automatycznym zbieraniem danych z Google oraz analizą wyników wyszukiwania. Poniżej kluczowe implikacje tej zmiany w trzech kontekstach: (a) techniczne crawlowanie i indeksowanie wyników przez boty/narzędzia SEO, (b) prowadzenie audytów SEO i analiz widoczności, oraz (c) ręczne przeglądanie SERP przez użytkowników na szerszą skalę.

Wpływ na crawlowanie i boty SEO

Ilustracja: Schematyczne porównanie pobierania wyników Google przed i po zmianie. Po lewej: jedno zapytanie (np. z parametrem num=100) zwracało 100 wyników naraz (symbolicznie niższe koszty – $$). Po prawej: po usunięciu tego parametru potrzeba 10 oddzielnych zapytań, by zebrać 100 wyników (wyższe koszty – $$$$$ – oraz dodatkowe utrudnienia, m.in. potencjalne mechanizmy ochrony przed scraperami).

Dla wszelkiego rodzaju botów i narzędzi automatycznie pobierających wyniki Google (np. crawlerów używanych przez firmy SEO do monitoringu pozycji) jest to zmiana rewolucyjna. Do tej pory bot mógł jednym żądaniem HTTP pobrać pełną listę 100 wyników, co było wydajne.

Teraz musi wykonać 10 oddzielnych żądań (po 10 wyników każde) żeby zgromadzić tę samą setkę wyników. Przekłada się to bezpośrednio na wzrost obciążenia i kosztów infrastruktury – według analiz branżowych oznacza to 10 razy więcej zapytań i potencjalnie nawet dziesięciokrotny wzrost kosztów operacyjnych związanych z pobieraniem danych z SERP. Innymi słowy, coś co wcześniej zajmowało sekundę i jeden request, teraz wymaga znacznie więcej czasu, zasobów sieciowych oraz mocy obliczeniowej po stronie narzędzi SEO.

Pierwszym odczuwalnym skutkiem było to, że wiele narzędzi trackujących pozycje nagle zaczęło zwracać niekompletne lub błędne dane. Barry Schwartz odnotował, że większość zewnętrznych narzędzi do śledzenia rankingu Google “się popsuła” i nie raportuje poprawnie pozycji, właśnie od momentu wyłączenia 100 wyników na stronę (około 11 września).

Użytkownicy tych narzędzi mogli zauważyć nagłe spadki widoczności czy brak danych – nie dlatego, że strony zniknęły z wyników, ale dlatego że trackery nie były w stanie zebrać wyników spoza Top 10/Top 20.

Google równolegle zwiększył najwyraźniej swoje wysiłki w zakresie wykrywania automatycznych scraperów. Wspomniane testy pokazały, że przy próbach omijania ograniczenia pojawiały się losowe prośby o CAPTCHA – nawet jeśli te same zapytania z tego samego IP w innej przeglądarce przechodziły, to równoległe sesje potrafiły natrafić na blokady.

Sugeruje to zastosowanie nowych mechanizmów anti-bot, być może powiązanych z wycofaniem num=100. Boty udające zwykłą przeglądarkę (np. poprzez Puppeteer czy Selenium) zaczęły doświadczać utrudnień, czyli Google aktywnie utrudnia masowe scrapowanie wyników wyszukiwania.

Wpływ na audyty SEO i analizę widoczności

Zmiana ta ma bezpośrednie przełożenie na audytowanie pozycji i analizowanie widoczności witryn w Google. Większość profesjonalnych narzędzi SEO, które agencje i specjaliści wykorzystują do śledzenia rankingu stron na dane słowa kluczowe, projektowana była z założeniem, że można sprawnie pobrać Top 50 czy Top 100 wyników. Teraz muszą one gwałtownie zmienić swoje podejście.

Już w kilka dni po wycofaniu num=100 dostawcy takich usług informowali klientów o zmianach w funkcjonalności. Dla osób wykonujących audyty oznacza to konieczność dostosowania metodyki – być może skupienia się na Top 10/20 jako bardziej stabilnych danych, albo szukania alternatywnych źródeł informacji o dalszych pozycjach.

Należy też podkreślić aspekt kosztów i wydajności takich narzędzi. Firmy oferujące monitoring pozycji operują na setkach tysięcy zapytań dziennie do Google. Jeśli każde z nich musi zostać wykonane 10-krotnie (dla 10 stron wyników zamiast jednej), to pociąga za sobą wielokrotny wzrost zużycia zasobów serwerowych, transferu danych, kosztów proxy itp. Możliwe zatem, że w nadchodzących miesiącach zobaczymy podwyżki cen abonamentów narzędzi SEO lub ograniczanie zakresu danych historycznie dostępnych w pakietach.

Z punktu widzenia praktyk audytowych, niektórzy zadają sobie pytanie: czy śledzenie pozycji aż do Top 100 nadal ma sens?. Skoro tylko ~0,78% użytkowników klika wyniki na drugiej stronie (to statystyka z wcześniejszych badań ruchu), być może skupienie się na Top 20 w zupełności wystarczy w codziennej pracy. To wszystko pokazuje, że audytorzy SEO muszą dostosować oczekiwania i metody – raporty widoczności mogą koncentrować się na topowych pozycjach, a analizy konkurencji być może częściej będą korzystać z danych innych niż tylko czysta pozycja (np. szacunkowego ruchu, który i tak głównie generują wysokie pozycje).

Utrudnienia w ręcznym przeglądaniu SERP

Choć główny ciężar tej zmiany odczuli twórcy narzędzi i specjaliści automatyzujący pracę, to także dla indywidualnych użytkowników (w tym SEO korzystających z Google “ręcznie”) nastąpiło pewne pogorszenie doświadczenia.

Osoby, które przyzwyczaiły się do przeglądania wyników wyszukiwania szeroką ławą (50-100 na stronę), teraz zostały zmuszone do powrotu do żmudnego przeklikiwania się przez kolejne strony po 10 wyników. Jest to odczuwalne np. przy ręcznym wyszukiwaniu swojej strony w TOP100 wyników – wcześniej można było wczytać wszystko na jednej stronie i szybko przeszukać (Ctrl+F) czy dana domena pojawia się w stawce. Teraz trzeba przechodzić przez wiele podstron, każdorazowo wczytując nową porcję wyników.

W regionach/głębi internetu, gdzie Google aktywował ciągłe przewijanie wyników (zamiast klikania na numer strony, kolejne wyniki ładują się automatycznie podczas scrollowania), brak parametru num=100 również oznacza brak możliwości załadowania “od razu” większej liczby wyników. Trzeba scrollować i czekać, aż doładują się następne partie – a i tak po pewnej liczbie wyników Google zwykle prezentuje przycisk „Więcej wyników”, co przerywa płynność.

W efekcie obejrzenie np. 50 czy 100 wyników ręcznie jest teraz wolniejsze i bardziej uciążliwe. Dla większości zwykłych użytkowników nie ma to dużego znaczenia, bo statystycznie rzadko kto przegląda dalej niż pierwszą czy dwie strony. Jednak dla zaawansowanych userów i SEO to realna strata wygody.

Podsumowując, oficjalny komentarz Google (na razie) sprowadza się do milczenia, ale nieoficjalnie przekaz jest czytelny: era łatwego pozyskania 100 wyników naraz dobiegła końca. Społeczność SEO żywo to komentuje – od głosu zrozumienia dla Google (że musi bronić wyników przed scraperami), aż po głos krytyki (że utrudnia to pracę legalnym specjalistom i może służyć zwiększeniu przychodów z reklam). Czas pokaże, czy Google pozostanie przy swoim (najprawdopodobniej tak), oraz jak bardzo branża SEO przeorganizuje swoje narzędzia i metody w odpowiedzi na tę zmianę. Jedno jest pewne: wrześniowa likwidacja parametru &num=100 przypomniała wszystkim, jak mocno jesteśmy uzależnieni od zasad dyktowanych przez Google.


Zapisz się na newsletter wypełniając pola poniżej. Będziesz na bieżąco ze wszystkimi wydarzeniami związanymi z Silesia SEM i informacjami o marketingu internetowym w sieci. Nie spamujemy.

Zostanie wysłany do Ciebie e-mail potwierdzający: przeczytaj zawarte w nim instrukcje, aby potwierdzić subskrypcję.


The following two tabs change content below.

Artur Strzelecki

Niezależny specjalista, który upowszechnia wiedzę o marketingu w wyszukiwarkach internetowych. Zazwyczaj uczy studentów, a w wolnych chwilach doradza jak odnaleźć własną ścieżkę w Google.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *