Ciemna strona niewinnych przeróbek. Dlaczego technologia deepfake jest niebezpieczna?

Streamerka Cinderella padła ofiarą fejkowej pornografii Źródło: Screenshot/ QTCinderella twitch.tv

Świat zdominowany przez internet naraża nas, użytkowników, na niebezpieczeństwa związane z falą nieprawdziwych informacji. Manipulacja w sieci nie jest niczym nowym, a jako konsumenci treści w mediach społecznościowych stale natrafiamy na fake newsy rozprzestrzeniające się w zastraszającym tempie. Dzięki dynamicznemu rozwojowi technologii, internet pozwala nam na tworzenie treści o nieograniczonym potencjale, takich jak deepfake.

Deepfake to wideo, w którym za pomocą sztucznej inteligencji (AI) możemy manipulować wizerunkiem innej osoby. Zjawisko trafiło do mainstreamu już jakiś czas temu za sprawą mediów społecznościowych, w szczególności aplikacji TikTok, na której filmy czy nawet całe profile użytkowników opierają się na wykorzystywaniu tożsamości innych ludzi. Za sprawą naszych smartfonów, dostęp do deepfake’u mamy na wyciągniecie ręki – wystarczy aplikacja oraz parę zdjęć, aby samemu przekonać się, jakie możliwości oferuje nam manewrowanie obrazem. Przy odpowiednim dobraniu sylwetki czy fryzury możemy z pełnym powodzeniem podszywać się pod kogoś zupełnie innego. Program radzi sobie również z wizerunkiem postaci animowanych, lalek, a nawet posągów. Jednakże potencjał technologiczny deepfake’u nie ogranicza się wyłącznie do obrazów. Za sprawą odpowiedniego syntetyzatora mowy, zaledwie parę sekund próbki czyjegoś głosu pozwala na automatyczne wygenerowanie „profilu głosu” przez program, który w naturalny sposób naśladuje brzmienie innych ludzi. Filmiki te mogą być nieszkodliwe, jednakże sam wynalazek budzi poważne obawy. Wykorzystanie AI do manipulacji jest perfekcyjnym narzędziem do rozpowszechniania fałszywych informacji oraz niszczenia wizerunku zarówno tych znanych, jak i mniej znanych osób.

Filmy tego typu zyskały na popularności w 2017 roku, kiedy na portalu Reddit anonimowy użytkownik o nazwie „deepfakes” opublikował spreparowany film pornograficzny z udziałem celebrytki. Wydarzenie to zapoczątkowało falę falsyfikowanych nagrań z udziałem sławnych osób oraz polityków. W kwietniu 2018 roku na kanale BuzzFeed pojawiło się nagranie, które przedstawiało zagrożenia związane z wykorzystaniem nowej technologii. Materiał ukazywał przemówienie byłego prezydenta Stanów Zjednoczonych Ameryki Baracka Obamy, które w rzeczywistości zostało wygłoszone przez aktora oraz komika Jordana Peela. Przekaz opublikowanego wideo był jednoznaczny – tworzenie nieprawdziwych treści nawet dla rozrywki może być niebezpieczne. Media społecznościowe, niestety, nie są w stanie na bieżąco walczyć z problemem. Deepfake’owa technika jest stale udoskonalana, a programy przeznaczone do weryfikacji fałszerstw bardzo często zawodzą ze względu na jej niezwykle szybki rozwój. O destrukcyjnej sile tej technologii mogła przekonać się znana amerykańska streamerka QTCinderella, której wizerunek został wykorzystany do stworzenia spreparowanego, pornograficznego wideo. Internetowa twórczyni o istnieniu nagrania dowiedziała się z audycji innego popularnego streamera, Atrioca, który podczas udostępniania swojego ekranu zapomniał zamknąć zakładki ze stroną zawierającą deepfake’owe zdjęcia i filmy erotyczne z udziałem streamerek. Kilka godzin po całym zajściu Atrioc przeprosił za swoje zachowanie, uzasadniając przeglądanie treści pornograficznych chorobliwą ciekawością. W sieci szybko zaczęły pojawiać się komentarze na temat zachowania mężczyzny, głos zabrała również wykorzystana QTCinderella. – Jestem wyczerpana i myślę, że musicie wiedzieć, jak wygląda ból – mówiła zapłakana twórczyni. – Jeżeli jesteś w stanie na to patrzeć, to ty jesteś problemem, to ty postrzegasz kobiety jako przedmiot – dodawała.

Ofiarą spreparowanych fotografii czy filmików może paść każda osoba publikująca swój wizerunek w internecie. Popularyzacja mediów społecznościowych, takich jak Facebook, Instagram, TikTok czy BeReal, umożliwiła nam dostęp do ogromnej bazy wizerunków innych osób. Co gorsze, portale te przyzwyczaiły nas do regularnego udostępniania swoich zdjęć oraz personalnych informacji. W tej sytuacji najbardziej narażoną grupą wydają się osoby młode, których profile często są przepełnione różnymi osobistym treściami. Deepfake potrafi zniszczyć życie w parę sekund. Obróbka obrazu nie trwa długo, a gdy przerobiony obraz trafi do internetu, najprawdopodobniej zostanie tam na zawsze. Na takie fotografie mogą natknąć się nasi znajomi, rodzina czy nawet pracodawcy. Konsekwencje mogą być naprawdę poważne – oprócz narażenia na szwank życia prywatnego czy zawodowego, w grę wchodzi również zniszczenie zdrowia psychicznego osoby, której wizerunek może zostać spreparowany przy minimalnym nakładzie pracy. Coraz częściej powstają strony, które opierają się na deepfake’owaniu twórców internetowych, również tych polskich. W szczególności narażone są modelki, streamerki oraz cosplayerki.

Deepfake wykorzystujący twarze znanych osób, to nie tylko satyra czy śmieszne obrazki udostępniane w mediach społecznościowych. Wytwór AI niesie ze sobą szereg nowych, realnych zagrożeń. Dezinformacja, manipulacja czy szantaż to tylko jedne z nich, a samo narzędzie może przyczynić się do oszustw. Kontrowersyjne zjawisko w łatwy sposób polaryzuje opinię publiczną, która w natłoku informacji równie szybko chłonie różne treści i na nie reaguje, nieumyślnie rozpowszechniając przekłamane obrazy i newsy. Bądźmy czujni. Podchodźmy krytycznie do internetowej zawartości udostępnianej przez nieznajomych, sprawdzajmy źródła oraz, jeżeli to możliwe, upewniajmy się, kto jest autorem publikowanych nagrań. Niezawodną pomocą mogą okazać się również wszelkie portale fact-checkingowe oraz profile w mediach społecznościowych walczące z dezinformacją.

Piotr RYDZ