Wizerunek, ciało, prywatność i normy online

AI staje się narzędziem, które użytkowane w nieodpowiedni sposób może wyrządzać ogromne szkody / Źródło: https://www.pexels.com/pl-pl/zdjecie/wyswietlono-macbooka-z-interfejsem-deepseek-ai-30530416/, fot. Matheus Bertelli
To, co pierwotnie miało być niewinnym żartem z polityka w bikini, szybko przerodziło się w krzywdę osób, które zostały rozebrane z własnej prywatności. Ostatnia głośna sprawa Groka, narzędzia rozwijanego w ramach platformy X przez Elona Muska, okazała się nie tylko próbą ściągnięcia uwagi, ale także testem naszych społecznych norm i granic wrażliwości. Testem, który jako użytkownicy internetu – niekoniecznie zdaliśmy.
Odkryta przez użytkowników nowa funkcja umożliwia generowanie realistycznych, często seksualnych wizerunków prawdziwych osób na podstawie krótkich poleceń tekstowych. Choć początkowo serwis zalały obrazy przedstawiające polityków w absurdalnych lub kompromitujących sytuacjach, granica bardzo szybko zaczęła się przesuwać.
Algorytm zaczął być wykorzystywany do tworzenia wizualnych fantazji z udziałem osób publicznych, a także zwykłych użytkowników – bez ich wiedzy, zgody czy kontroli nad efektem końcowym. Tak było w przypadku streamerki Nieuczesanej. Opublikowane przez nią screeny z transmisji zostały przerobione i wielokrotnie dostosowane do upodobań użytkownika. Publiczny charakter nitki wiadomości potęguje dodatkowo skalę nadużycia. W obliczu ryzyka odarcia nie tyle z prywatności, ile z godności, wiele użytkowniczek zdecydowało się na usunięcie swoich zdjęć, zmianę ustawień prywatności konta, a nawet jego całkowite skasowanie.
Po raz kolejny obserwujemy technologie wyprzedzające nasze normy społeczne i prawne, zmieniające ciało w surowiec możliwy do dowolnego przetwarzania i reprodukowania. Wizerunek przestaje być własnością czy nienaruszalną wartością, stając się obiektem operacyjnym.
Gdy ciało staje się surowcem
Żyjemy w rzeczywistości masowej i bezdusznej produkcji obrazów, w której kolejne narzędzia obiecują szybkość i łatwość ich – niekoniecznie etycznego – pozyskiwania. Generatywne AI przez długi czas budziło zastrzeżenia głównie w środowisku artystycznym, gdzie wyraźnie było widać, że twórczość staje się pożywką dla algorytmu. Dziś jednak granica przesunęła się dalej. Nawet nie zauważyliśmy, że kolejnym surowcem stały się nasze własne wizerunki, twarze i gesty.
Szczególnie niepokojące jest zjawisko dobrowolnego „karmienia” generatorów. Użytkownicy z własnej woli decydują się na użycie zdjęć swoich lub swoich bliskich w celu ich ulepszenia, poprawienia lub co gorsza – ożywienia, jak w popularnym swego czasu trendzie przywracania do życia krewnych ze starych fotografii. W imię ciekawości, rozrywki albo nostalgii oddajemy własną prywatność systemom, których praktyki często nie w pełni rozumiemy. Granica między zgodą a lekkomyślnością zaczyna się zacierać, zwłaszcza gdy ofiarami takich działań padają dzieci. W tym wszystkim coraz rzadziej zadajemy pytania o konsekwencje.
Upadek norm czy nowa etyka?
Fala sprzeciwu wobec generatywnego AI, jeszcze niedawno bardzo wyraźna, stopniowo słabnie. Pod wpływem zalewu niskiej jakości treści narasta w nas zmęczenie, a wraz z nim obojętność i ciche przyzwolenie.
W tym kontekście coraz częściej pojawia się pytanie o sens dbania o digital footprint. Skoro wizerunek może zostać w każdym momencie zmanipulowany, podrobiony lub doszczętnie zniszczony – po co przykładać wagę do jego spójności czy poprawności? W efekcie rodzi się coś, co można określić mianem cyfrowego fatalizmu – przekonanie, że skoro kontrola nad własnym wizerunkiem i tak jest iluzją, najlepiej przestać ją utrzymywać. To przesunięcie wydaje się szczególnie niebezpieczne. Zamiast wzmacniać ochronę, normalizujemy jej bezsilność.
Co jednak w przypadku, gdy ktoś nieumyślnie sięga po wizerunek, który do niego nie należy, nie wiedząc, skąd algorytm czerpie swoje inspiracje? Jednym z najbardziej niewygodnych pytań pozostaje to, na jakich dokładnie danych trenowane są modele generatywne. W przypadku grafiki i tekstu mówimy o prawach autorskich. W przypadku wizerunku – o czym właściwie mówimy? O prawdziwych ludziach, ich ciałach, ich ciałach i intymności, przetwarzanych w fikcyjne obrazy, które jednak oddziałują jak realne.
Prawo, które nie nadąża za technologią
Kluczowym problemem pozostaje prawo, które zupełnie nie nadąża za postępem technologicznym. Obowiązujące regulacje dotyczące ochrony dóbr osobistych powstawały w rzeczywistości, w której nie istniały narzędzia pozwalające na natychmiastowe, masowe i niemal niemożliwe do wykrycia manipulacje wizerunkiem.
W teorii osoby poszkodowane mają prawo powoływać się na prawo do ochrony własnego wizerunku, w praktyce jednak egzekwowanie tych regulacji w przestrzeni internetowej okazuje się niezwykle trudne. Trudno określić, kto ponosi odpowiedzialność – użytkownik wpisujący prompt, platforma udostępniająca funkcję bez odpowiedniego filtru czy twórcy modelu „uczącego się” generować na niejasnych zbiorach danych.
Dodatkową trudność stanowi fakt, że wiele takich treści funkcjonuje krótko – często w zamkniętych nitkach czy grupach – zanim znikną i zostaną zrepostowane, częściowo zacierając możliwość dotarcia do ich źródła. W praktyce oznacza to rozmycie odpowiedzialności, które nie tylko uspokaja sumienie, ale także skutecznie uniemożliwia reakcję osobom poszkodowanym.
Warto odnotować, że coraz częściej pojawiają się postulaty o wprowadzeniu nowych ram prawnych – od obowiązku wyraźnego oznaczenia treści generowanych przez AI, przez ograniczenia w wykorzystywaniu wizerunków realnych osób po odpowiedzialność platform za skutki działania udostępnianych narzędzi. Niedawno pojawiła się informacja o reakcji platformy na obecną sytuację. Jak czytamy na BBC News Polska: – Model sztucznej inteligencji Grok Elona Muska nie będzie już mógł edytować zdjęć prawdziwych osób, aby pokazać ich w odsłaniających ubraniach w jurysdykcjach, w których jest to nielegalne, po fali krytyki seksualizowanych deepfake’ów tworzonych przez AI.
Choć w większości działania te podejmowane są po fakcie, wskazują na rosnącą świadomość zagrożeń, jednocześnie obnażając brak spójnych, wyprzedzających mechanizmów ochrony przed nadużyciami. Związek pomiędzy innowacją a odpowiedzialnością oraz próba zachowania między nimi równowagi są aktualnie jednym z kluczowych punktów debaty o przyszłości sztucznej inteligencji.
Słowem podsumowania
Sprawa Groka pokazuje nie tyle problem technologii, ile problem społecznego przyzwolenia. AI jako narzędzie samo w sobie nie narusza godności – oferuje jedynie możliwość, z której korzystają użytkownicy, testując kolejne granice i sprawdzając, na ile mogą sobie pozwolić. Platformy decydują się zareagować dopiero wtedy, gdy początkowo opłacalna dla nich kontrowersja zostaje wyparta oburzeniem, które zaczyna zagrażać ich wizerunkowi.
Pola ZYCH