Gdy AI kradnie nam twarz. Co zrobić, gdy padnie się ofiarą deepfake’u?

Rozwój sztucznej inteligencji w ostatnich latach przyspieszył tak bardzo, że w zasadzie za nim nie nadążamy. Boimy się jej, z drugiej strony chcemy nauczyć się z AI korzystać w dobrych celach. Niestety oprócz pozytywów pojawiają się negatywy i to na olbrzymią skalę. Przestępcy wykorzystują sztuczną inteligencję do licznych oszustw, pojawia się więcej deepfake’ów i coraz trudniej odróżnić je od prawdy. To co miało być scenariuszem si-fi, dzieje się tu i teraz. AI kradnie wizerunek już nie tylko gwiazd, ale przedsiębiorców, ekspertów czy osób prywatnych. Jakie mogą być tego skutki?

Nowa era kradzieży tożsamości

Z jednaj strony staramy się chronić naszą prywatność jak najlepiej, mamy od kilku lat RODO, trwa dyskusja na temat wrzucania zdjęć dzieci do sieci. Z drugiej strony nigdy nie było łatwiej, jeśli chodzi o kradzież naszego wizerunku. Technologie sztucznej inteligencji rosną w siłę, potrafią naśladować głos, styl mówienia i oczywiście wygląd. Jednym z najbardziej niepokojących zjawisk jest generowanie fałszywych wizerunków (obrazu, głosu, mimiki) — tzw. deepfake — które są wykorzystywane, by podszyć się pod prawdziwe osoby i rozpowszechniać treści z ich udziałem bez ich zgody. Kiedy to dotyka celebrytów, polityków czy ludzi mediów, wzbudza szeroką dyskusję. Okazuje się, że ofiarą paść może każdy, a ostatnio przytrafia się to przedsiębiorcom, ekspertom, osobom medialnym, szkoleniowcom. Czy nikt z nas nie może czuć się bezpiecznie?

Jak działają przestępcy?

Historia jest dość prosta i powtarzalna. Oszuści za pomocą AI generują bardzo profesjonalne treści z wizerunkiem danej osoby, która wypowiada się na popularny temat, a tak naprawdę namawia do zakupu magicznego leku lub do inwestycji. Filmy najczęściej trafiają na TIK TOKA. Zasięgi bywają duże, konta trudno zgłosić skutecznie, a obraz i głos są na tyle dobrze sklonowane, że wielu może się nabrać. To rodzi szereg pytań: czy taka praktyka będzie stałym elementem świata cyfrowego? Jakie konsekwencje ponosi osoba, której wizerunek został skradziony?

– Sytuacja jest na pewno bardzo dziwna, zwłaszcza gdy tak jak w moim przypadku, pewnego dnia widzi się swoją twarz, a wcale nie udzielało się danego wywiadu. Do tej pory najbardziej baliśmy się, że AI ukradnie nam pracę, a nie że pozwoli oszustom wypowiadać się w naszym imieniu w Internecie. W ciągu kilku najbliższych lat wiele zawodów zostanie zastąpionych, co na zachodzie jest już coraz bardziej widoczne. Nie mieliśmy jednak w świadomości takiego zagrożenia jak kradzież tożsamości w sieci. Zdarzało się to przez telefon, gdy ktoś podszywa się pod bliskich, czy na Messengerze lub mailach. Był to popularny sposób wyłudzeń. Jednak, gdy pewnego dnia budzisz się i ileś osób wysyła Ci filmy, na których mówisz bzdury, to przeżywasz szok. Osoba wygląda jak Ty, mówi jak Ty, ale to nie jesteś Ty. Skutki takiego działania mogą nas bardzo dotknąć, nie tylko prywatnie, emocjonalnie, ale też zawodowo. Dlatego trzeba być świadomym zagrożenia – mówi Tomasz Kalko, psycholog biznesu, szkoleniowiec, autor książek.

Skutki ataku: osobiste, psychiczne, zawodowe

Tomasz Kalko, który sam padł ofiarą oszustwa za pomocą technologii deepfake, wymienia jakie skutki może za sobą nieść tego typu kradzież tożsamości dla każdego człowieka.

1. Utrata kontroli nad „cyfrowym ja”

Gdy ktoś generuje filmy z twoim wizerunkiem i głosem, ale przekazem, którego Ty nigdy byś nie wyraził, następuje „rozerwanie” Twojej obecności medialnej. Staje się ona niespójna. To może prowadzić do zamieszania wśród klientów, współpracowników, osób, które Cię znają.

2. Utrata reputacji w biznesie

Osoby publiczne (ale też przedsiębiorcy) mogą ponieść szkodę wizerunkową — gdy generowane filmy zawierają sugestie, rekomendacje, przekazy marketingowe, promują produkty, inwestycje, projekty, nie zgodne z naszymi działaniami – i ktoś je potraktuje jako autentyczne. Klienci mogą poczuć się oszukani, współpracownicy zaatakowani, reputacja może ucierpieć, a to często prowadzi do strat biznesowych.

3. Skutki psychiczne i emocjonalne

Dla ofiary to poczucie bezbronności, naruszenie prywatności, lęk, stres, nieufność wobec otoczenia cyfrowego. To tak jakby nasz wizerunek został wykorzystany przeciwko nam. Może to prowadzić do izolacji. Stres wywołują także skutki związanie z utratą klientów czy współprac.

4. Konsekwencje prawne i finansowe

W niektórych przypadkach generowane materiały służą bezpośrednio do wyłudzeń, oszustw – gdy na ich podstawie zachęca się odbiorców do inwestycji, przelewów, zakupów czy przekazania środków. W takiej sytuacji ofiara może być w pociągnięta do walki sądowej i takie przypadki paradoksalnie dopiero są szansą na walkę z oszustami. W całość wprowadzona zostaje policja i prokuratura i wówczas zaczyna się proces udowadniania, że to nie my, ale właśnie wygenerowane przez AI oszustwo.

Sytuacja prawna – czy są sposoby na walkę?

Urząd UODO zwraca uwagę, iż w polskim prawie brakuje regulacji ściśle odnoszących się do treści deepfake, co utrudnia szybkie działanie prawnicze. Ostatnio w Polsce ofiarą tego typu oszustwa padła Jolanta Kwaśniewska, która zgłosiła sprawę na policję. Firma podszywała się pod nią promując fałszywy program „3 000 zł miesięcznie”, mający rekompensować inwestycje energetyczne, a całość wymierzona była w seniorów.

Państwowy Instytut Badawczy NASK podał, że w 2024 r. przestępcy wykorzystali już wizerunki 121 znanych osób w Polsce — polityków, dziennikarzy, biznesmenów — do manipulacji marketingowych, oszustw czy fałszywych reklam. Byli to m.in. były prezydent Andrzej Duda, Rafał Brzoska, czy Wojciech Cejrowski.

Na świecie często słyszy się o przypadkach osób, które straciły oszczędności życia, bo kontaktowały się z nimi gwiazdy na czele z Bradem Pittem, czy Tylor Swift. Przestępcy wykorzystują wizerunki celebrytów na wiele sposobów podszywając się pod nich i nawiązując relację z ofiarą.

W polskim prawie

Obecny stan prawny w Polsce nie zawiera jednej, kompleksowej regulacji dotyczącej deepfake. Zamiast tego ochrona ofiar opiera się na rozproszonych przepisach:

– W Polsce brak jest obecnie jednej, kompleksowej regulacji dotyczącej deepfake’ów, co sprawia, że ochrona ofiar opiera się na rozproszonych przepisach — od kodeksu karnego (art. 190a §2 k.k. o podszywaniu się pod inną osobę, art. 286 k.k. o oszustwie), przez kodeks cywilny (ochrona dóbr osobistych), po prawo autorskie i RODO. W efekcie postępowania sądowe bywają długie, śledzenie sprawców trudne, a platformy społecznościowe nie zawsze reagują sprawnie. W UE trwają prace nad AI Act i funkcjonuje Digital Services Act, które nakładają obowiązki oznaczania treści generowanych automatycznie i moderacji nielegalnych materiałów, ale przepisy te dopiero zaczynają być wdrażane. Dlatego na razie walka z oszustami w sieci jest utrudniona. Ofiary powinny przede wszystkim dokumentować dowody, zgłaszać materiały platformom, powiadamiać policję i dochodzić swoich praw cywilnych – mówi mec. Tymoteusz Paprocki, Kancelaria Paprocki Wojciechowski & Partnerzy.

Co może zrobić ofiara?

Eksperci od cyberbezpieczeństwa zalecają kilka kroków: dokumentowanie dowodów (zrzuty ekranu, linki, kopie materiałów), zgłaszanie ich platformom społecznościowym, zawiadomienie policji i jeśli to możliwe, dochodzenie ochrony cywilnoprawnej. Warto również publicznie informować o oszustwie, by ostrzec odbiorców i przeciwdziałać dezinformacji. Do tego można wykorzystać swoje kanały social mediowe.

Cyfrowy świat pełen pułapek

Przykład tego, że coraz więcej osób pada ofiarą deepfake’ów czy innego rodzaju oszustw w sieci pokazuje, że każdy z nas musi edukować się na ten temat. Powinniśmy już od najmłodszych lat uczyć dzieci odróżniania prawdy od wygenerowanego przez AI kłamstwa.

– Takich sytuacji będzie coraz więcej, prawo na ten moment nie jest jeszcze gotowe nas bronić. Ważne jest budowanie swojego wizerunku w mediach w taki sposób, aby odbiorcy od razu wiedzieli, że my nie mogliśmy nakłaniać do sprzedaży wątpliwych inwestycji czy leków. Musimy również budować swoją odporność psychiczną i nie załamywać się, gdy do przestępstwa dojdzie, a podejmować właściwe kroki prawne – tłumaczy Tomasz Kalko.

Ostatecznie, jeśli ktoś padł już ofiarą deepfake’a, to warto zaznaczyć, że nie chodzi tylko o ochronę wizerunku, ale też o ochronę siebie. To doświadczenie jest uderzeniem zarówno w sferę zawodową, jak i emocjonalną. Nagle widzimy swoją twarz i słyszymy swój głos w kontekście, z którym nie mamy nic wspólnego. To atak nie tylko na wizerunek, ale też na poczucie tożsamości i bezpieczeństwa. W takich chwilach naturalne jest poczucie bezsilności, złości, a nawet wstydu. Dlatego pierwszym krokiem jest zadbanie o siebie – rozmowa z kimś zaufanym, psychologiem, współpracownikiem, kimś, kto pomoże z dystansem spojrzeć na sytuację i przypomni, że winni są tu jedynie przestępcy.

Drugi krok to szybkie i strategiczne działanie. W świecie biznesu reputacja jest kapitałem, który trzeba chronić tak samo jak dane finansowe. Nie warto chować głowy w piasek. Trzeba otwarcie komunikować, że doszło do oszustwa. Można poinformować o tym w swoich kanałach, nagrać krótkie wideo, napisać post. Transparentność buduje zaufanie i pokazuje, że sytuacja jest kontrolowana. Równocześnie trzeba wzmocnić procedury bezpieczeństwa: zabezpieczyć konta, opracować plan kryzysowy, ustalić, kto w firmie odpowiada za reakcję w podobnych przypadkach.

– Ten rodzaj ataku jest testem odporności emocjonalnej i naszej reputacji. I choć trudno się na to przygotować, sposób w jaki zareagujemy, może stać się naszą siłą. Można pokazać, że potrafimy zachować spokój w kryzysie, działać z klasą i troską zarówno o siebie, jak i o swoich klientów. Bo w świecie, w którym coraz częściej nie wiemy, co jest prawdą, autentyczność i spójność stają się największym kapitałem lidera – wspomina Tomasz Kalko.

Tomasz Kalko – Psycholog biznesu, strateg (ALK), manager, wykładowca akademicki (MBA), trener.

Posiada 25-letnie doświadczenie w zarządzaniu zespołami, przeszkolił ponad 30 tys. osób. Współtwórca sukcesu firmy Blachy Pruszyński. Budował sieci dystrybucyjne o wartości ponad 2 mld zł obrotu rocznego. Praktyk, przedsiębiorca, właściciel marki szkoleniowej, mówca motywacyjny, autor publikacji prasowych.

Twórca   autorskich   programów   szkoleniowych   z   zakresu   przywództwa, komunikacji   i   sprzedaży.   Autor   książek, m.in.   najnowszej „Sztuka   mądrego sporu”. Członek Stowarzyszenia Profesjonalnych Mówców i Mentorów.

Leave a Reply

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *