Jako prywatni detektywi z wieloletnim doświadczeniem widzimy z bliska, jak szybki rozwój sztucznej inteligencji wpływa na nasze bezpieczeństwo. Technologia, która obiecuje ułatwiać życie, niestety bywa też wykorzystywana do nowych form oszustw i nadużyć. Detektyw przestrzega: nie wszystko, co widzisz lub słyszysz w internecie, jest prawdą, a Twoje dane osobowe mogą stać się cennym łupem dla manipulatorów.

W tym wpisie omówimy najważniejsze zagrożenia związane z AI w kontekście prywatności i dezinformacji. Dowiesz się, jak działają deepfake’i, na czym polega masowe zbieranie danych i profilowanie behawioralne, w jaki sposób AI umożliwia manipulację informacją oraz jak działają boty. Co najważniejsze – podpowiemy, jak się chronić przed tymi zagrożeniami.

Deepfake i fałszywe multimedia

Sztuczna inteligencja umożliwia m.in. zaawansowane manipulacje obrazem i dźwiękiem, tworząc iluzje trudne do odróżnienia od rzeczywistości.

Jednym z najbardziej medialnych zagrożeń AI są deepfake’i – fałszywe nagrania audio/wideo generowane przez algorytmy. Potrafią one podrobić czyjś wizerunek lub głos tak dobrze, że odbiorca wierzy, iż ma do czynienia z prawdziwym materiałem. Niestety, technika ta bywa wykorzystywana w groźny sposób. W skrajnych przypadkach cyberprzestępcy tworzą fake filmy o charakterze intymnym z wizerunkiem osób bez ich zgody, co służy do szantażu lub nękania​. Takie materiały to brutalne naruszenie prywatności ofiary i forma cyfrowej przemocy​. Inny scenariusz to klonowanie głosu bliskiej osoby – oszust dzwoni na przykład do seniora, udając wnuczka proszącego o pilną pożyczkę. Ten typ ataku staje się coraz powszechniejszy i wymusił już oficjalne ostrzeżenia ze strony organów państwowych​.

Deepfake’i zagrażają też instytucjom i firmom. Głośno było o sprawie, w której pracownik działu finansowego padł ofiarą spreparowanej telekonferencji: oszuści wykorzystali audio-wideo deepfake rzekomego prezesa, by nakłonić go do przelania 25 mln dolarów​. Skoro nawet wykwalifikowany personel dał się zwieść fałszywemu obrazowi i głosowi, łatwo sobie wyobrazić, jak przeciętny człowiek może paść ofiarą takiej manipulacji.

Jak rozpoznać deepfake? Nie jest to łatwe, bo technologia stale się doskonali. Czasem jednak można wychwycić pewne nienaturalne detale – np. artefakty obrazu (dziwnie rozmyte krawędzie twarzy, nierealistycznie gładka skóra) albo drobne niedopasowania ruchu ust do mowy. Ważny jest też zdrowy rozsądek i kontekst: jeśli widzimy znaną osobę robiącą coś kompletnie niepasującego do jej charakteru (np. papież w luksusowej kurtce puchowej), warto się zastanowić, czy jest to wiarygodne – zazwyczaj w realnym świecie pojawiłyby się inne źródła potwierdzające tak sensacyjną scenę​. Krótko mówiąc: nie ufaj bezkrytycznie nawet własnym oczom i uszom, gdy natrafisz na szokujące nagranie. W razie wątpliwości spróbuj zweryfikować materiał w innym źródle albo bezpośrednio u osoby, której dotyczy.

Deepfake mężczyzny, który po zmianie ma twarz znanego aktora.

Deepfake mężczyzny z podmienioną twarzą Toma Cruise’a. [Źródło]

Zbieranie danych i utrata prywatności

Kolejne zagrożenie wiąże się z tym, że sztuczna inteligencja “żywi się” ogromnymi ilościami danych. Nasza aktywność w sieci – posty, polubienia, historię wyszukiwania, lokalizację GPS ze smartfona, a nawet obraz z kamer monitoringu – wszystko to może być gromadzone i analizowane przez algorytmy AI. Im więcej wrażliwych informacji jest zbieranych i przechowywanych, tym większe ryzyko, że wpadną one w niepowołane ręce lub zostaną użyte w sposób naruszający prywatność​. Niestety, często nawet nie wiemy, że nasze dane są wykorzystywane. Zdarza się, że firmy technologiczne pozyskują dane bez wyraźnej zgody użytkowników.

W efekcie tracimy kontrolę nad tym, kto wie o nas co. Dane z pozoru błahe, zebrane w ogromnej skali, pozwalają stworzyć bardzo szczegółowy obraz naszej osoby. Informacje o zdrowiu, zwyczajach zakupowych, stanie konta, relacjach towarzyskich – wszystko to bywa dziś przechowywane w cyfrowych bazach. Wycieki takich danych (czy to przez ataki hakerskie, czy błędy) mogą prowadzić do kradzieży tożsamości, oszustw finansowych albo po prostu do poczucia ciągłej inwigilacji. Prywatność staje się towarem, którym wielkie korporacje handlują na potęgę, a my często nawet nie zdajemy sobie z tego sprawy.

Profilowanie behawioralne i personalizacja przekazu

Z masowego zbierania danych wynika następne zagrożenie – profilowanie behawioralne użytkowników. AI analizuje zgromadzone o nas dane, aby przewidzieć nasze zachowania, preferencje, a nawet słabości. Na tej podstawie tworzone są profile psychologiczne i socjodemograficzne niezwykle precyzyjnie opisujące naszą osobowość. Już kilka lat temu wykazano, że algorytm może ocenić cechy charakteru człowieka na podstawie samych polubień trafniej niż bliscy znajomi – ustępując niemal tylko małżonkom​. Innymi słowy, komputer może poznać nas lepiej niż własna rodzina na podstawie śladów, jakie zostawiamy w sieci.

Profilowanie behawioralne budzi też obawy o dyskryminację i błędne decyzje algorytmów. Jeśli sztuczna inteligencja uzna kogoś za potencjalnie niepożądanego (np. ma “profil ryzyka”), może to skutkować odmową kredytu lub gorszą ofertą ubezpieczenia. Już teraz odnotowano przypadki, gdzie wadliwe systemy AI wskazały niewłaściwe osoby na podstawie analizy nagrań z monitoringu​. Tego typu błędne profile mogą poważnie skrzywdzić uczciwych ludzi.

Nasze cyfrowe ja – czyli wszystko to, co AI o nas wie – staje się więc równie ważne jak to, kim jesteśmy naprawdę. Problem w tym, że nad cyfrowym profilem nie mamy pełnej kontroli. W rękach nieodpowiednich podmiotów wiedza o naszych nawykach i osobowości może posłużyć do manipulacji (np. poprzez wyświetlanie nam specjalnie skrojonych pod nas reklam czy fałszywych wiadomości) albo do naruszenia naszej wolności i prywatności.

Potrzebujesz pomocy detektywa?
Biuro Detektywistyczne Modus jest do Twojej dyspozycji!

Manipulacja informacją i dezinformacja

Informacja to władza – to powiedzenie nabiera nowego znaczenia w epoce AI. Sztuczna inteligencja rewolucjonizuje tworzenie treści: dziś algorytmy potrafią automatycznie generować realistycznie brzmiące artykuły, posty w mediach społecznościowych, a nawet całe portale informacyjne wyglądające na prawdziwe. Niestety, ułatwia to zalewanie internetu dezinformacją. Manipulacja informacją przy użyciu AI może przybierać różne formy: od pisania przekonujących fake newsów, przez generowanie sfabrykowanych zdjęć (np. wspomniane deepfake), aż po masowe komentowanie i powielanie określonych narracji przez boty.

W przeszłości rozpowszechnianie fałszywych treści wymagało zaangażowania wielu ludzi – dziś wystarczy jeden zdolny program. Mieliśmy już przykłady witryn udających portale informacyjne, gdzie większość tekstów pisała AI, często kolportując niesprawdzone rewelacje. W mediach społecznościowych działają profile podszywające się pod ekspertów lub zwykłych użytkowników, za którymi kryją się algorytmy generujące treści mające wpływać na opinię publiczną. Taka automatyzacja sprawia, że kłamstwo może rozchodzić się szybciej i szerzej niż kiedykolwiek.

Szczególnie niebezpieczne jest połączenie spersonalizowanego profilowania z generowaniem treści. Wyobraź sobie kampanię dezinformacyjną, w której AI tworzy nieco inny fałszywy przekaz dla każdego odbiorcy, dopasowany do jego przekonań i emocji. Każda osoba widzi wersję “newsów” najbardziej do siebie przemawiającą – przez co trudniej zorientować się, że coś jest nie tak. To nie science fiction, a realna możliwość. AI może pójść krok dalej i generować treści od zera, by utwierdzić nas w określonych poglądach lub wprowadzić w błąd.

Skutki społeczne takiej manipulacji informacją mogą być poważne: polaryzacja społeczeństwa, nieufność do mediów, chaos informacyjny. W skali jednostki – każdy z nas może pod wpływem fałszywych informacji podjąć błędną decyzję (np. zdrowotną lub finansową) albo niesłusznie kogoś oskarżyć. Dezinformacja napędzana AI to wyścig zbrojeń: im więcej jej w obiegu, tym trudniej dotrzeć do rzetelnych faktów. Dlatego tak ważne jest, byśmy nauczyli się krytycznie oceniać to, co czytamy i oglądamy online.

Boty i automatyczne oszustwa

Wspomniane wyżej zjawisko dezinformacji w dużej mierze rozprzestrzenia się poprzez boty internetowe – czyli automatyczne konta w mediach społecznościowych, które udają prawdziwych użytkowników. Już dziś znaczący odsetek dyskusji w sieci toczy się nie między ludźmi, a między botami. Szacunki z badań naukowych sugerują, że około 20% aktywności w trakcie globalnych wydarzeń generują boty (reszta to ludzie)​. Te fałszywe profile publikują posty, komentują, udostępniają – pozornie tak jak my, ale ich celem jest wpływanie na narrację i szerzenie dezinformacji​. Krótko mówiąc, armie botów potrafią wytworzyć iluzję, że jakaś opinia jest powszechna, podczas gdy w rzeczywistości stoi za nią garstka ludzi z wieloma kontami.

Niestety, rozwój AI oznacza, że boty stają się coraz trudniejsze do wykrycia. Do tej pory wiele fałszywych kont można było rozpoznać po pewnych schematach (np. dziwne nazwy użytkowników, brak prawdziwych zdjęć, postowanie setek razy na dobę). Jednak już w 2019 roku pojawiły się koncepcje, by wykorzystać AI do tworzenia całych sieci botów nieodróżnialnych od prawdziwych ludzi – posiadających dopracowane profile, historię postów o rodzinie czy hobby, a od czasu do czasu przemycających własne treści​. Taki “bot” może miesiącami zachowywać się jak normalny użytkownik, by zdobyć obserwujących i zaufanie, a dopiero potem zacząć subtelnie wpływać na opinie innych. Organizacje dysponujące zaawansowaną AI mogłyby zalać internet tysiącami fałszywych person – a społeczeństwo mogłoby nawet tego nie zauważyć​.

Oprócz wpływu na opinię publiczną, boty mogą też służyć do bardziej przyziemnych oszustw. Wyobraźmy sobie zautomatyzowane wiadomości od “obsługi klienta” podszywające się pod bank czy firmę telekomunikacyjną – AI jako chatbot potrafiłaby prowadzić z nami przekonującą rozmowę, próbując wyłudzić dane logowania lub nakłonić do kliknięcia w zainfekowany link. Już dziś spotykamy boty w komunikatorach, które próbują np. wyłudzić kod BLIK czy dane karty płatniczej. Sztuczna inteligencja usprawnia te socjotechniczne sztuczki, sprawiając że trudniej odróżnić maszynę od człowieka.

Sztuczna inteligencja obrazująca koncepcje botów w mediach społecznościowych.

Grupa robotów reprezentujących boty w mediach społecznościowych. [Źródło]

Jak się chronić przed zagrożeniami AI?

Na szczęście, możemy podjąć konkretne środki ostrożności, by zminimalizować ryzyko stania się ofiarą cyfrowych manipulacji. Oto kilka praktycznych wskazówek, które warto wdrożyć na co dzień:

1. Chroń swoje dane osobowe

Udostępniaj w internecie tylko te informacje, które są naprawdę konieczne. W ustawieniach prywatności serwisów ogranicz maksymalnie zakres zbieranych o Tobie danych (np. wyłącz zgody na profilowanie reklamowe, jeśli to możliwe). Unikaj udziału w pozornie zabawnych quizach i aplikacjach, które proszą o dostęp do Twojego profilu – mogą one służyć wyciąganiu danych. Im mniej szczegółów o Tobie krąży w sieci, tym trudniej stworzyć Twój profil behawioralny.

2. Uważaj na podejrzane wiadomości i telefony

Jeśli ktoś kontaktuje się z Tobą rzekomo w pilnej sprawie (np. „wnuczek” potrzebujący pieniędzy albo „bank” z prośbą o potwierdzenie transakcji), zachowaj czujność. Zweryfikuj tożsamość innym kanałem – oddzwoń do wnuczka na znany numer, skontaktuj się z bankiem przez oficjalną infolinię. Dobrym pomysłem jest umówienie się z rodziną na hasło bezpieczeństwa na wypadek telefonu z prośbą o pomoc. Pamiętaj, że AI potrafi podrobić głos i styl mówienia, więc nawet znajomo brzmiący głos może być oszustwem.

3. Nie wierz oczom – sprawdzaj fakty

W dobie deepfake’ów warto założyć, że pojedyncze nagranie czy zdjęcie może kłamać. Gdy widzisz sensacyjny filmik lub czytasz szokującą „wiadomość” w mediach społecznościowych, zatrzymaj się na chwilę. Poszukaj potwierdzenia w poważnych serwisach informacyjnych. Jeśli np. pojawia się viralowe wideo z politykiem mówiącym coś skandalicznego, zobacz czy relacjonują to renomowane media – jeśli nie, to znak, że może to być fałszywka. Jak radzą eksperci z serwisu Poynter, zastanów się, czy dana osoba naprawdę zrobiłaby to, co pokazuje materiał – jeśli wydaje się to nieprawdopodobne lub nie w jej stylu, najpewniej mamy do czynienia z deepfake’iem​. Zawsze lepiej dmuchać na zimne i zweryfikować informację, niż udostępnić dalej szkodliwą plotkę.

4. Rozpoznawaj boty w sieci

Bądź świadom, że nie każda dyskusja w internecie toczy się z prawdziwymi ludźmi. Jeśli jakiś profil na Twitterze czy Facebooku wzbudza Twoje wątpliwości (np. ma świeże konto, dziwną nazwę użytkownika, brak znajomych, a publikuje masowo treści polityczne lub kontrowersyjne), istnieje duża szansa, że to bot. Nie dawaj się wciągać w kłótnie z podejrzanymi kontami – właśnie na to liczą prowokatorzy. Zgłaszaj administracji platform oczywiste fake konta. W ustawieniach prywatności ogranicz możliwość komentowania Twoich postów tylko do znajomych, jeśli obawiasz się zalewu komentarzy od botów. Krótko mówiąc: zachowaj dystans do anonimowych głosów w sieci – mogą nie być tym, za kogo się podają.

5. Zabezpiecz swoje konta i urządzenia

Używaj silnych haseł i włącz uwierzytelnianie dwuskładnikowe (2FA) wszędzie tam, gdzie to możliwe. To utrudnia przejęcie Twoich kont nawet, jeśli ktoś zdobędzie część danych. Aktualizuj na bieżąco oprogramowanie – producenci często łatają luki, które mogłaby wykorzystać AI w rękach cyberprzestępców. Korzystaj z programów antywirusowych i filtrów anty-phishingowych w poczcie – mogą one wychwycić znane zagrożenia, np. linki do stron podszywających się pod banki. Te podstawowe kroki techniczne zwiększą Twoje bezpieczeństwo w cyfrowym świecie pełnym inteligentnych zagrożeń.

6. Pozostań świadomy i ucz się

Najważniejsza bronią jest świadomość. Czytasz ten artykuł, a więc interesujesz się tematem – to świetnie! Kontynuuj poszerzanie wiedzy o nowych metodach oszustw i manipulacji. Uczul też swoich bliskich, zwłaszcza tych mniej obeznanych z technologią. Porozmawiaj z dziadkami o deepfake’ach i klonowaniu głosu, pokaż rodzicom jak rozpoznać fake newsy. Im więcej osób będzie czujnych, tym mniejsza szansa, że padną ofiarą. Sztuczna inteligencja będzie się dalej rozwijać – my też musimy rozwinąć naszą czujność i krytyczne myślenie.

Podsumowanie

Rozwój sztucznej inteligencji przypomina ostrze o dwóch krawędziach. Z jednej strony otrzymujemy niesamowite narzędzia usprawniające nasze życie, z drugiej – przestępcy i manipulatorzy zyskują nowe możliwości działania. Zagrożenia dla prywatności i rzetelnej informacji są realne: od deepfake’ów, przez masową inwigilację danych, po sprytniejsze boty propagandowe. Detektyw ostrzega, ale i radzi: nie popadajmy w panikę, zamiast tego zachowajmy zdrowy sceptycyzm i ostrożność. Dbajmy o swoje dane, weryfikujmy informacje, edukujmy siebie i innych. Dzięki temu zmniejszymy szanse, że padniemy ofiarą cyfrowych oszustw.

Na koniec dnia sztuczna inteligencja to tylko narzędzie – to od ludzi zależy, jak zostanie użyta. My, jako użytkownicy internetu, mamy wpływ na to, czy damy sobą manipulować. Bądźmy więc jak detektywi we własnym cyfrowym życiu: zadawajmy pytania, sprawdzajmy tropy, nie ufajmy pozorom. Taka postawa to najlepsza tarcza obronna w świecie, gdzie granica między prawdą a fałszem coraz bardziej się zaciera. Pozostań czujny – to Ty jesteś pierwszą linią obrony przed zagrożeniami AI.

Modus Biuro Detektywistyczne - Zagrożenia szybkiego rozwoju AI