Google usuwa parametr &num=100 – koniec swobodnego dostępu do wyników wyszukiwania
W połowie września 2025 roku Google usuwa parametr &num=100, który dotychczas pozwalał na wyświetlenie nawet 100 wyników wyszukiwania na jednej stronie. Parametr ten był przez SEO-wców wykorzystywany jako „szybki skrót” – standardowo Google pokazuje ok. 10 wyników, a dopisanie &num=100
wymuszało dłuższą listę 100 wyników na raz. Zmiana oznacza, że od teraz w praktyce nie da się już pobrać 100 wyników jednym zapytaniem – każde wyszukiwanie zwraca około 10 wyników domyślnie.
Co to oznacza dla SEO i monitorowania pozycji (analiza pozycji)
Usunięcie parametru znacznie komplikuje analizę pozycji stron. Zamiast jednego zapytania pozwalającego zebrać pełne TOP100, narzędzia SEO muszą teraz wykonać aż dziesięć zapytań (10× po 10 wyników). Oto główne konsekwencje dla branży:
- Wzrost kosztów pozyskiwania danych: Dziesięciokrotny wzrost liczby zapytań oznacza proporcjonalny wzrost zużycia zasobów serwerowych i konieczność zakupu dodatkowych proxy. Dotychczasowe analizy TOP100 słowa kluczowego można było wykonać jednym zapytaniem; teraz potrzebne są dziesięć zapytań, co podnosi koszty operacyjne nawet dziesięciokrotnie.
- Utrata pełnego obrazu konkurencji: Rank trackery i narzędzia do analizy konkurencji tracą dostęp do dalszych pozycji poza TOP10. Śledzenie rankingów i widoczności na 20.–100. pozycji stało się niewiarygodne lub niemożliwe. W praktyce wiele firm ogranicza się teraz do analizy TOP10–20 dla kluczowych słów, bo pełny przegląd TOP100 jest zbyt kosztowny lub technicznie utrudniony.
- Zakłócenia w Google Search Console: Bardzo szybko po zmianie zauważono gwałtowne spadki liczby wyświetleń i jednocześnie wzrost średniej pozycji w raportach GSC. Wynika to stąd, że wcześniej masowe boty sprawdzające pozycje (pobierające 100 wyników) generowały dodatkowe wirtualne wyświetlenia. Po wyeliminowaniu tego „łatwego dostępu” część tych wyświetleń zniknęła, co widać jako spadek impresji i unormowanie wskaźników (np. podwyższoną średnią pozycję).
- Większe zabezpieczenia Google: Intensyfikacja liczby zapytań powoduje częstsze uruchamianie mechanizmów antybotowych (np. CAPTCHA). Google celowo wprowadza ograniczenia, by wymusić trudniejsze pobieranie danych, co dodatkowo komplikuje operacje narzędzi SEO.
W efekcie analitycy muszą rewidować swoje strategie. Tradycyjne masowe porównania pozycji tracą na znaczeniu, a większy nacisk kładzie się na kluczowe frazy (topowe 10–20) i efektywność treści. Spadki wyświetleń (impressji) oraz skoki średniej pozycji w GSC zmieniają dotychczasową interpretację wyników i wymagają oszacowania nowych baz od 10 września 2025 w górę.
Problemy narzędzi SEO i analityki
Wiodące narzędzia SEO oraz platformy monitorujące pozycje w wyszukiwarce stanęły przed nowym wyzwaniem. Zamiast dotychczasowych metod, muszą teraz radzić sobie z technicznymi barierami Google i wyższymi kosztami. Najważniejsze skutki to:
- Ograniczony zakres monitoringu: Platformy rank trackers oficjalnie skracają zasięg. Czołowe serwisy zdecydowały się monitorować wyłącznie TOP20 (niektóre nawet TOP10). Przykładowo jedna popularna platforma ogłosiła rezygnację z raportowania pozycji powyżej 20. Wynika to z faktu, że zbieranie danych 100 pozycji wymaga 10 razy więcej zasobów i naraża na blokady Google.
- Zakłócenia w raportach Google Search Console: GSC również „oberwało”. W praktyce widoczna jest nietypowa dysonansja: na desktopach średnia pozycja wzrosła, a liczba wyświetleń spadła lub pozostała bez zmian. Przykładowo zrzut ekranu z GSC pokazuje widoczny wzrost średniej pozycji bez istotnego spadku ruchu – co sugeruje, że wcześniejsze dane były napompowane przez boty. Co więcej, badania wykazały, że problem dotyczy przede wszystkim wersji desktopowej (na urządzeniach mobilnych opcja 100 wyników od dawna nie istniała).
- Problemy badaczy i mediów: Ograniczenia w pobieraniu wyników uderzają poza branżą SEO. Wysokie bariery w dostępie do pełnych SERP-ów utrudniają badania naukowe i analizy dziennikarskie, które kiedyś opierały się na masowym przeglądaniu trendów społecznych czy treści. Zwiększenie kosztów pobierania danych grozi spowolnieniem prac badawczych i „zamknięciem” części metodyk stosowanych przy badaniach nad dezinformacją czy trendami społecznymi.
Wszystkie te utrudnienia pokazują, że era łatwego, szybkiego scrapowania danych z Google dobiegła końca. Specjaliści i firmy SEO muszą inwestować w nowe technologie, lepsze proxy i alternatywne źródła danych, aby utrzymać jakość usług monitoringu wyników wyszukiwania.
Różnorodne reakcje kluczowych graczy w analizie pozycji
Zmiana, w ramach której Google usuwa parametr &num=100, wymusiła natychmiastową reakcję czołowych dostawców narzędzi SEO. Każda firma obrała inną strategię, co ujawnia skalę problemu i brak jednego, uniwersalnego rozwiązania dla całej branży.
Najbardziej radykalną decyzję podjęło AccuRanker, całkowicie rezygnując ze śledzenia pełnego Top 100 i ograniczając raporty do Top 20. Semrush natomiast podkreśla, że dane z Top 10 pozostają w pełni wiarygodne, jednak dla niższych pozycji wdrożono jedynie tymczasowe mechanizmy. seoClarity stara się zbudować przewagę, podkreślając, że użytkownicy nie odczuwają skutków zmiany dzięki ich własnym metodom pobierania danych. Senuto oficjalnie przyznało, że również zostało dotknięte problemem i obecnie koncentruje się na odtworzeniu rzetelnych wyników przynajmniej w zakresie Top 50. Co ciekawe, problemy wystąpiły także w samym Google Search Console, gdzie raporty nagle pokazały spadki wyświetleń i wzrost średnich pozycji – co dodatkowo skomplikowało sytuację interpretacyjną dla całej branży.
Co to oznacza dla raportów i klientów?
Dla klientów i odbiorców analiz SEO skutki są widoczne od razu. Raporty przestały zawierać pełne zestawienia, a wiele firm udostępnia obecnie jedynie fragmentaryczne dane – najczęściej w zakresie Top 10 lub Top 20.
W praktyce oznacza to brak rozbudowanych wykazów, do których przywykli klienci, a także konieczność zmiany interpretacji wskaźników. Zamiast pełnych rankingów, dostępne są częściowe wyniki, a analizy widoczności w dalszych pozycjach pozostają ograniczone lub wręcz niedostępne. Firmy narzędziowe intensywnie pracują nad przywróceniem pełnych danych, ale obecnie raporty należy traktować ostrożnie i rozumieć jako obraz tylko najważniejszej części rynku. To przesuwa ciężar w kierunku jakościowego podejścia – koncentracji na kluczowych frazach i ruchu biznesowo wartościowym, a nie jedynie na ilości pozycji w długich zestawieniach.
Opinie ekspertów
Eksperci SEO i analitycy komentują zmianę jednoznacznie: jest ona trudna, lecz przewidywana w kontekście strategii Google. Kilku kluczowych głosów:
- Brodie Clark (SEO consultant) zaobserwował wyraźny spadek desktopowych wyświetleń i równoczesny skok średniej pozycji w GSC, zaczynający się około 10 września. Według niego wcześniejsze „pikowania” wyświetleń mogły być efektem botów pobierających 100 wyników.
- Keyword Insights (narzędzie do rankingu) potwierdziło w mediach społecznościowych, że
&num=100
został “zabity” – zamiast 1 zapytania potrzeba 10, co daje 10× większy koszt pozyskania danych. - Ryan Jones (SEO manager) ostrzega, że agresywne scrapowanie doprowadza do działań odwetowych Google. „Wszystkie narzędzia AI drenujące Google spowodują wyłączenie większości SEO-toolów. Google walczy z botami i łamie wszystkie rankery” – napisał na LinkedIn.
- SEO-kreativ (blog): analitycy serwisu samodzielnie monitorowali dane i opisali, że ich własne statystyki GSC pokazały „sztuczny” wzrost impresji (z ~3,555 do ~1,270) po 13 września. Ich zdaniem ten dramatyczny spadek dowodzi, że wcześniejsze wyświetlenia były „zawyżane” przez boty i zostały właśnie odfiltrowane.
- Społeczność SEO: raporty użytkowników wskazują, że na etapie testów parametr działał przypadkowo (~50% skuteczność), a ostatecznie został całkowicie wyłączony. W efekcie wiele trackerów chwilowo „zepsuło się”, generując błędy lub brak danych w dniach 10–15 września. Google na razie milczy, co uznaje się za demonstrację siły – branża stoi wobec faktu dokonango.
- Creative SEO podkreśla natomiast konieczność edukacji klientów. Agencja zwraca uwagę, że spadki widoczne w programach nie są odzwierciedleniem realnej utraty pozycji, lecz efektem ograniczeń w dostępie do danych. To moment, w którym szczególnie ważne staje się tłumaczenie, iż zmiana nie wpływa na aktualną widoczność w wyszukiwarce. Jednocześnie specjaliści ostrzegają, że przyszłość pozostaje niepewna – możliwe są kolejne techniczne modyfikacje ze strony Google, które ponownie zmienią sposób raportowania i interpretacji wyników.
Reakcje te pokazują konsensus: zmiana jest realnym problemem technicznym i biznesowym, a jednocześnie wpisuje się w strategię Google zmierzającą do ochrony danych przed masowym scrapowaniem.
Rekomendacje i perspektywy dla branży
Branża SEO i marketingu internetowego musi się dostosować do nowej rzeczywistości. Poniższe kroki mogą pomóc złagodzić skutki usunięcia &num=100
:
- Dywersyfikacja źródeł danych: Nie polegajmy wyłącznie na bezpośrednim scrapowaniu SERP. Korzystajmy z Google Search Console, narzędzi Bing Webmaster, własnych analiz ruchu i API (np. firm trzecich), by zmniejszyć zależność od pojedynczej metody.
- Fokus na efektywności biznesowej: Koncentrujmy się na metrykach wpływających na biznes – ruchu, konwersjach, przychodach – zamiast na monitorowaniu setek słów kluczowych. Najważniejsze są frazy z najwyższą wartością. Edukujmy klientów, że raportowanie pełnego rankingu się zmienia, a wyższe pozycje i jakościowy ruch to priorytety.
- Inwestycje w technologię odporną: Firmy narzędziowe powinny rozwijać zaawansowane systemy pobierania danych – z etycznym scrapowaniem, proxy i automatycznymi rozwiązaniami CAPTCHA. Alternatywnie, poszukiwać dodatkowych źródeł (np. długoterminowe HTTP/2, integracje z innymi wyszukiwarkami) i wprowadzać większą transparentność metod zbierania danych dla użytkowników.
- Nowe obszary i innowacje: Warto rozwijać usługi niezależne od klasycznych pozycji, takie jak zaawansowane audyty techniczne, analiza treści czy integracje z AI (sekcje odpowiedzi, FAQ). To pomoże chronić model biznesowy nawet w sytuacji trudnego dostępu do wyników wyszukiwania.
Podsumowując, usunięcie parametru &num=100
to nie tylko zmiana techniczna, lecz sygnał, że Google coraz bardziej kontroluje dostęp do swoich danych. Branża SEO będzie musiała działać bardziej strategicznie i efektywnie, akceptując ograniczenia, które zmieniają dotychczasowy sposób prowadzenia analiz. Scenariusz ten przyspiesza przejście od tzw. open data do zamkniętego ekosystemu, w którym właściciel platformy (Google) dyktuje nowe zasady gry. Nadal jednak najważniejsze pozostają kompetencje i doświadczenie specjalistów – to one pozwolą skutecznie znaleźć rozwiązania i przystosować działania do tej nowej, bardziej wymagającej rzeczywistości.
Dodaj komentarz
Chcesz się przyłączyć do dyskusji?Feel free to contribute!