Polska znajduje się na trzecim miejscu w Europie pod względem narażenia na cyberataki sponsorowane przez obce państwa. Zbliżające się wybory mogą więc stać się polem bitwy w cyberprzestrzeni. Czy w erze deepfake’ów możemy być o nie spokojni? Jak rozpoznać manipulacje i jak się przed nimi bronić?
Pod cyfrowym ostrzałem
Według Check Point Research w 2024 r. Polska była celem blisko 100 tys. cyberataków, a nasz sektor użyteczności publicznej doświadczał 2041 incydentów tygodniowo, przewyższając światową średnią. Według raportu Microsoft Digital Defense nasz kraj zajmuje trzecie miejsce w Europie pod względem narażenia na ataki ze strony cyberprzestępczych organizacji sponsorowanych przez obce państwa.
Zagrożenie cyberatakami wymierzonymi w wybory jest więc realne. Ich celem jednak może wcale nie być bezpośrednia zmiana wyniku głosowania.
„Cyberprzestępcy mogą dążyć np. do podważenia zaufania do procesu wyborczego, polaryzacji społeczeństwa, próbować wpłynąć na to, czy w ogóle pójdziemy zagłosować”
– komentuje Łukasz Boduch, Software & Applications – Solutions Architect z firmy IT SoftServe Poland.

AI i social media w walce o głosy
Arsenał atakujących obejmuje wiele narzędzi.
„Najbardziej prawdopodobne scenariusze obejmują ataki DDoS na strony internetowe PKW, partii politycznych czy podmiotów odpowiedzialnych za cyberbezpieczeństwo, phishing wymierzony w kandydatów, ich bliskich, komitety wyborcze czy partie, a także manipulowanie opinią publiczną na przykład poprzez publikowanie deepfake’ów w social media”
– wymienia Łukasz Boduch z SoftServe Poland.
Dezinformacja może też obejmować fałszywe komunikaty np. o wcześniejszym zamykaniu lokali wyborczych.
Możliwość manipulacji zwiększyła sztuczna inteligencja.
„AI umożliwia dziś tworzenie bardzo przekonujących deepfake’ów, np. sfałszowanych wideo, na których politycy >>mówią<< rzeczy, których nigdy nie powiedzieli. Przeciętny wyborca może mieć naprawdę spore trudności z odróżnieniem fałszywki od autentycznego materiału”
– ostrzega Łukasz Boduch z SoftServe Poland.
Rozprzestrzenianiu takich treści sprzyjają social media. Sieci botów i fałszywych kont mogą sztucznie wzmacniać zasięg określonych narracji, tworząc wrażenie ich popularności.
Jak rozpoznać manipulacje?
„Krytyczne myślenie to podstawa. Sprawdzajmy źródła i szukajmy potwierdzenia w innych, oficjalnych źródłach. Szczególną ostrożność zachowajmy względem sensacyjnie brzmiących newsów i >>przecieków<<, zwłaszcza takich, które pojawiają się tuż przed ciszą wyborczą”
– mówi Łukasz Boduch z SoftServe Poland. Uważajmy też na to, co „podajemy dalej”.
A co z deepfake’ami? Sztuczna inteligencja tworzy coraz bardziej zaawansowane treści, ale nadal z wieloma elementami sobie nie radzi.
„W przypadku materiałów wizualnych o tym, że zostały stworzone przez AI, najczęściej świadczy to, że obraz wygląda nienaturalnie, postacie często mają szkliste, puste oczy i są pokazywane albo bez kończyn, albo np. z sześcioma czy czterema palcami ręki. W wideo warto zwrócić uwagę na nienaturalne ruchy oraz mimikę i to, czy dźwięk jest zsynchronizowany z obrazem bądź zapętlony. Sztuczna inteligencja nie jest też dobra w kreowaniu elementów poza pierwszym planem – często są one rozmyte, wyglądają sztucznie” – podpowiada Łukasz Boduch z SoftServe Poland.
W social mediach warto też sprawdzić profil, z którego pochodzą treści – np. to, jak długo istnieje i co wcześniej publikował. Uważajmy także na dane czy cytaty, które mogą być wyrwane z kontekstu, krytycznie podchodźmy też do tekstów zawierających liczne błędy.
Na wszelkie próby dezinformacji warto reagować i je zgłaszać – to realny wpływ na bezpieczeństwo państwa i nas samych.
Źródło informacji: Softserve