deepfake (źródło: Pexels, pixabay)
deepfake (źródło: Pexels, pixabay)

Jak AI wpływa na problem deepfake pornografii?

Sztuczna inteligencja zdobywa serca miłośników technologii, ułatwiając życie i wprowadzając nieoczekiwane innowacje. Tworzenie dzieł sztuki, wirtualne przymierzalnie czy projektowanie kampanii reklamowych to tylko wierzchołek góry lodowej możliwości, które oferuje nam AI. Niestety, jak każdy medal, ten również ma swoją mroczną stronę. Ekspertów niepokoi coraz bardziej powszechny problem, który dotyka przede wszystkim kobiety – pornografię deepfake, o której istnieniu mogą nawet nie wiedzieć.

Co to deepfake i dlaczego warto o nich wiedzieć?

Deepfake to wideo i obrazy, które zostały cyfrowo stworzone / zmodyfikowane przy użyciu sztucznej inteligencji lub uczenia maszynowego. Wyobraź sobie, że twarz osoby, którą znasz, zostaje przeniesiona na ciało aktora porno, a wideo z takim połączeniem ląduje w sieci. Brzmi przerażająco? Właśnie tak zaczęła się historia deepfake pornografii kilka lat temu, gdy użytkownik Reddit podzielił się klipami z udziałem kobiet celebrytek.

Od tamtej pory, liczba takich materiałów zaczęła rosnąć lawinowo. Twórcy tego typu „rozrywek” nie szczędzą nikogo. W zamieszczonych treściach możemy ujrzeć twarze influencerów, dziennikarzy oraz wielu innych znanych osób. Tak naprawdę, wszyscy mogą paść ofiarą tego procederu.

Jak sztuczna inteligencja wpływa na problem deepfake pornografii?

Rozwój technologii sprawia, że tworzenie przekonujących fotografii staje się coraz łatwiejsze. Eksperci obawiają się, że sytuacja może się jeszcze pogorszyć, gdy generatywne narzędzia AI, szkolone na miliardach obrazów z internetu, zaczną wytwarzać coraz bardziej realistyczne i przekonujące materiały.

Jednym z przykładów, jak dotkliwie problem ten może wpłynąć na życie ofiar, jest historia Noelle Martin z Australii. Kiedyś, zupełnie przypadkowo, natrafiła w internecie na deepfake pornografię z jej wizerunkiem. Od tamtej pory, mimo licznych prób usunięcia materiałów, nie udało jej się, a zdjęcia wciąż są w sieci. Sytuacja ta zmusiła ją do walki z tym zjawiskiem, a nawet zmiany przepisów w Australii.

Problem deepfake pornografii w znanych aplikacjach

Niektóre firmy technologiczne, takie jak OpenAI, twórcy modelu DALL-E, starają się ograniczać dostęp do wytwarzania tego rodzaju obrazów. Filtrują one żądania użytkowników i blokują możliwość tworzenia sztucznych wizerunków celebrytów czy znanych polityków.

Inne modele, takie jak Midjourney, blokują z kolei użycie niektórych słów kluczowych i zalecają zgłaszanie wątpliwych obrazów przez użytkowników. TikTok wprowadził zasady, które nakazują oznaczanie wideo deepfake jako sfałszowane, a także zabronił ich tworzenia z udziałem osób prywatnych czy młodzieży.