Większość ruchu w internecie generują boty. To walka o naszą uwagę — i przegrywamy ją

Data:

Ponad połowa globalnej aktywności w sieci pochodzi od botów, a nie od ludzi. Dr Nikodem Sarna z Akademii Leona Koźmińskiego ostrzega przed dezinformacją i radzi, jak chronić się w cyfrowym świecie.


Ponad połowa ruchu w internecie generowana przez boty

Zgodnie z raportem „Imperva Bad Bot Report”, 51 proc. ruchu w globalnym internecie nie jest już tworzona przez ludzi, lecz przez boty. To właśnie one klikają, publikują, udostępniają i komentują — często skuteczniej niż prawdziwi użytkownicy. W rozmowie z serwisem naukawpolsce.pl dr Nikodem Sarna, ekspert ds. marketingu cyfrowego z Akademii Leona Koźmińskiego, zwraca uwagę, że w ciągu ostatnich kilku lat proporcje w sieci uległy dramatycznej zmianie.

– „Od momentu pojawienia się generatywnej sztucznej inteligencji, począwszy od ChatGPT 3, boty systematycznie przejmują przestrzeń cyfrową. Większość aktywności online nie pochodzi już od ludzi. To sprawia, że znaczna część internetu staje się martwa — bez ludzkiego udziału”

– mówi Sarna.

Czy e-learning jest skuteczny? Badania Uniwersytetu Warszawskiego

Boty to specjalne programy automatyzujące działania w środowisku cyfrowym. Część z nich pełni pożyteczne funkcje, np. indeksuje strony internetowe, obsługuje filtry antyspamowe czy zabezpiecza infrastrukturę sieciową. Ale druga, znacznie liczniejsza grupa, służy do przeprowadzania ataków, phishingu, kradzieży danych czy masowego siania dezinformacji. Według danych 14 proc. ruchu w sieci generują tzw. dobre boty, a aż 37 proc. — złe boty.

– „Złe boty mogą automatycznie pobierać treści ze stron, przełamywać zapory bezpieczeństwa, wykorzystywać luki w systemach, a także symulować działania tysięcy użytkowników naraz. To potężne narzędzia w rękach grup przestępczych, farm trolli czy organizacji prowadzących działania dezinformacyjne”

– dodaje ekspert.


Boty a dezinformacja i cyberzagrożenia w 2025 roku

W praktyce boty tworzą sztuczne środowisko informacyjne. Symulują ruch użytkowników, generują fałszywe komentarze, publikują zmanipulowane treści i nakręcają emocje. Z punktu widzenia odbiorcy trudno dziś odróżnić, które informacje powstały z udziałem człowieka, a które są wytworem kodu.

– „Boty tworzą narracje, które wyglądają wiarygodnie i trafiają w nasze emocje. W ten sposób budują echo-chambers i postprawdę. Ludzie reagują na treści, których w rzeczywistości nikt nie napisał. To manipulacja w czystej postaci”

– podkreśla Sarna.

To zjawisko nie dotyczy tylko mediów społecznościowych. Boty wykorzystywane są także w kampaniach politycznych, działaniach marketingowych, atakach na serwisy informacyjne i systemach masowego zbierania danych. Ataki DDoS, fałszywe zamówienia, nieautoryzowane pobieranie treści — to dziś standardowy arsenał automatycznych systemów.

Dzieci w internecie – raport 2025

Jednocześnie nawet najbardziej zaawansowane systemy wykrywania botów nie są w stanie całkowicie wyeliminować problemu.

– „To niekończąca się gra w kotka i myszkę. Wykrywacze się uczą, ale boty też. Coraz lepiej naśladują ludzi, włącznie z ich błędami i emocjami”

– zaznacza ekspert.


Dlaczego platformom internetowym opłaca się tolerować boty

Zjawisko obecności botów w sieci nie jest przypadkowe i nie wynika jedynie z niedostatecznych narzędzi technicznych do ich wykrywania. Jak podkreśla dr Nikodem Sarna w rozmowie z serwisem naukawpolsce.pl, dla wielu platform boty są po prostu opłacalne. Ich działalność przekłada się na kluczowe wskaźniki biznesowe, które decydują o wartości rynkowej firm technologicznych.

Po pierwsze, boty generują ruch. Nawet jeśli jest on sztuczny, zwiększa liczbę odsłon, komentarzy i kliknięć. Dla reklamodawców i inwestorów takie wskaźniki to argument, że platforma jest „żywa” i przyciąga miliony użytkowników. W praktyce duża część tego ruchu może być tworzona przez algorytmy, ale w raportach finansowych nie ma to znaczenia.

Po drugie, boty potrafią tworzyć złudzenie popularności i społecznego rezonansu. Masowe udostępnienia, polubienia czy komentarze generowane przez automatyczne konta budują wrażenie, że dane treści są „trendujące”. Dla platform to wygodne narzędzie wzmacniania zaangażowania — nie trzeba czekać, aż zrobią to prawdziwi ludzie.

Po trzecie, aktywność botów pozwala algorytmom platform uczyć się zachowań, które następnie służą do optymalizacji wyświetlanych treści i reklam. Im większa liczba interakcji (nawet sztucznych), tym łatwiej trenować modele rekomendacyjne. A lepiej dopasowane treści to większe zyski z reklam.

– „Platformom często bardziej opłaca się udawać, że problemu nie ma. Boty zwiększają statystyki i pomagają walczyć o uwagę użytkowników. A to właśnie uwaga jest dziś walutą internetu. I w tej walce, jako społeczeństwo, przegrywamy”

– mówi Sarna.

Dodatkowym czynnikiem jest brak jasnych regulacji prawnych, które zmuszałyby firmy do ujawniania, jaki procent ich ruchu stanowią boty. Dopóki takie przepisy nie powstaną, wielu graczy na rynku cyfrowym nie ma interesu, by ograniczać zautomatyzowaną aktywność.

W efekcie boty są nie tylko problemem bezpieczeństwa i dezinformacji, ale też częścią biznesowego modelu wielu platform — zjawiskiem, które przynosi wymierne korzyści finansowe.

AI i terapeutyczne peptydy – nowa era leków

Jak rozpoznać boty i chronić się przed manipulacją

Choć nie ma jednego skutecznego sposobu na odcięcie się od aktywności botów, użytkownicy mogą zwiększyć swoją odporność. Ekspert wskazuje kilka praktycznych zasad:

  • sprawdzaj, kto publikuje daną informację,
  • klikaj w treści pochodzące z wiarygodnych źródeł i redakcji,
  • zwracaj uwagę na clickbaitowe tytuły i emocjonalne nagłówki,
  • unikaj pochopnego udostępniania niesprawdzonych treści,
  • ucz się rozpoznawać schematy manipulacji.

– „Poświęcenie jednej sekundy na refleksję może nas uchronić przed powielaniem fałszu. Boty karmią się naszą nieuważnością”

– zauważa Sarna.


Relacje offline jako tarcza przed dezinformacją

Naukowiec przypomina, że odporność na manipulację to nie tylko kwestia technologii, ale też relacji społecznych. Osoby odizolowane, bez wsparcia rodziny czy znajomych, są bardziej podatne na fałszywe treści i cyberoszustwa.

– „Kiedy mamy wokół siebie ludzi, możemy konfrontować informacje, słuchać różnych opinii, szybciej wychwytywać manipulacje. Dobre samopoczucie i relacje społeczne to realna warstwa ochronna przed dezinformacją”

– podkreśla ekspert z ALK.

Według Sarny konieczne są też rozwiązania systemowe — w tym większa odpowiedzialność platform za treści generowane przez boty oraz obowiązek ich oznaczania. Ale zanim takie regulacje wejdą w życie, każdy użytkownik musi nauczyć się rozpoznawać zagrożenia samodzielnie.


Boty zostaną z nami – pytanie brzmi: na jakich zasadach

Boty są nieodłączną częścią współczesnego internetu i nie znikną. Z każdym rokiem stają się bardziej zaawansowane, a granica między aktywnością człowieka i maszyny coraz bardziej się zaciera. Dlatego — jak podkreśla dr Nikodem Sarna — kluczową kompetencją przyszłości będzie umiejętność krytycznej analizy informacji.

– „Boty będą i powinny istnieć. Ale pytanie brzmi: kto nad nimi panuje i czy my, jako użytkownicy, potrafimy je rozpoznać. Dlatego edukacja cyfrowa i świadomość społeczna są dziś ważniejsze, niż kiedykolwiek”

– podsumowuje ekspert w rozmowie z serwisem naukawpolsce.pl.


Źródło: naukawpolsce.pl

ZOSTAW ODPOWIEDŹ

Proszę wpisać swój komentarz!
Proszę podać swoje imię tutaj

Udostępnij post:

Popularne

Czytaj więcej
Related

Ewolucja człowieka praktycznie się zatrzymała. „Selekcja naturalna już na nas nie działa”

Nowoczesna medycyna i zmiany środowiskowe sprawiły, że presja ewolucyjna...

Dlaczego Polacy piją? Winne „małpki” i złe wychowanie!

Prawie połowa Polaków wskazuje złe wzorce rodzinne jako główny...

Ustawa przyspieszająca postępowania frankowe. Co naprawdę oznacza dla kredytobiorców i banków?

Nowa ustawa frankowa skraca czas postępowań i automatycznie wstrzymuje...

Prokuratura składa wniosek o uchylenie immunitetu Zbigniewa Ziobry! Zarzuca mu 26 przestępstw

Prokuratura Generalna złożyła do Sejmu wniosek o uchylenie immunitetu...