Wybory prezydenckie: kto zdecyduje – my czy hakerzy?

6 godzin temu
Zdjęcie: Cyberbezpieczeństwo w samorządach kuleje


Polska znajduje się na trzecim miejscu w Europie pod względem narażenia na cyberataki sponsorowane przez obce państwa. Zbliżające się wybory mogą więc stać się polem bitwy w cyberprzestrzeni. Czy w erze deepfake’ów możemy być o nie spokojni? Jak rozpoznać manipulacje i jak się przed nimi bronić?

Pod cyfrowym ostrzałem

Według Check Point Research w 2024 r. Polska była celem blisko 100 tys. cyberataków, a nasz sektor użyteczności publicznej doświadczał 2041 incydentów tygodniowo, przewyższając światową średnią. Według raportu Microsoft Digital Defense nasz kraj zajmuje trzecie miejsce w Europie pod względem narażenia na ataki ze strony cyberprzestępczych organizacji sponsorowanych przez obce państwa.

Zagrożenie cyberatakami wymierzonymi w wybory jest więc realne. Ich celem jednak może wcale nie być bezpośrednia zmiana wyniku głosowania.

– Cyberprzestępcy mogą dążyć np. do podważenia zaufania do procesu wyborczego, polaryzacji społeczeństwa, próbować wpłynąć na to, czy w ogóle pójdziemy zagłosować – komentuje Łukasz Boduch, Software & Applications – Solutions Architect z firmy IT SoftServe Poland.

AI i social media w walce o głosy

Arsenał atakujących obejmuje wiele narzędzi.

– Najbardziej prawdopodobne scenariusze obejmują ataki DDoS na strony internetowe PKW, partii politycznych czy podmiotów odpowiedzialnych za cyberbezpieczeństwo, phishing wymierzony w kandydatów, ich bliskich, komitety wyborcze czy partie, a także manipulowanie opinią publiczną np. poprzez publikowanie deepfake’ów w social media – wymienia Łukasz Boduch z SoftServe Poland.

Dezinformacja może też obejmować fałszywe komunikaty np. o wcześniejszym zamykaniu lokali wyborczych.

Możliwość manipulacji zwiększyła sztuczna inteligencja.

– AI umożliwia dziś tworzenie bardzo przekonujących deepfake’ów, np. sfałszowanych wideo, na których politycy >>mówią<< rzeczy, których nigdy nie powiedzieli. Przeciętny wyborca może mieć naprawdę spore trudności z odróżnieniem fałszywki od autentycznego materiału – ostrzega Łukasz Boduch z SoftServe Poland.

Rozprzestrzenianiu takich treści sprzyjają social media. Sieci botów i fałszywych kont mogą sztucznie wzmacniać zasięg określonych narracji, tworząc wrażenie ich popularności.

Jak rozpoznać manipulacje?

– Krytyczne myślenie to podstawa. Sprawdzajmy źródła i szukajmy potwierdzenia w innych, oficjalnych źródłach. Szczególną ostrożność zachowajmy względem sensacyjnie brzmiących newsów i >>przecieków<<, zwłaszcza takich, które pojawiają się tuż przed ciszą wyborczą – mówi Łukasz Boduch z SoftServe Poland. Uważajmy też na to, co „podajemy dalej”.

A co z deepfake’ami? Sztuczna inteligencja tworzy coraz bardziej zaawansowane treści, ale przez cały czas z wieloma elementami sobie nie radzi.

– W przypadku materiałów wizualnych o tym, iż zostały stworzone przez AI, najczęściej świadczy to, iż obraz wygląda nienaturalnie, postacie często mają szkliste, puste oczy i są pokazywane albo bez kończyn, albo np. z sześcioma czy czterema palcami ręki. W wideo warto zwrócić uwagę na nienaturalne ruchy oraz mimikę i to, czy dźwięk jest zsynchronizowany z obrazem bądź zapętlony. Sztuczna inteligencja nie jest też dobra w kreowaniu elementów poza pierwszym planem – często są one rozmyte, wyglądają sztucznie – podpowiada Łukasz Boduch z SoftServe Poland.

W social mediach warto też sprawdzić profil, z którego pochodzą treści – np. to, jak długo istnieje i co wcześniej publikował. Uważajmy także na dane czy cytaty, które mogą być wyrwane z kontekstu, krytycznie podchodźmy też do tekstów zawierających liczne błędy.

Na wszelkie próby dezinformacji warto reagować i je zgłaszać – to realny wpływ na bezpieczeństwo państwa i nas samych.


Idź do oryginalnego materiału