AI, chatbot, bot, sztuczna inteligencja (źródło: Pixabay)
Bot (źródło: Pixabay)

Generatywne narzędzia AI mogą być blokowane. Naukowcy znaleźli sposób na ograniczanie manipulacji

Preparowanie zdjęć staje się coraz częstsze, a najbardziej znane osobistości wykorzystywane są do tworzenia licznych deepfake’ów. AI jest w tym (niestety) pomocna, jednak naukowcy z MIT znaleźli sposób, który mógłby w pewnym stopniu ograniczyć generowane manipulacje.

Deepfake, manipulacje i generatywna AI, czyli kłamstwo, które czai się w otchłaniach internetu

Generatywne zdolności sztucznej inteligencji już niejednokrotnie sprawiły, że ludzie zwyczajnie dali się nabrać. Deepfake to sposób manipulacji, który staje się popularniejszy, ale przede wszystkim coraz bardziej skuteczny. Ogólnodostępne i łatwe w użyciu narzędzia pozwalają tworzyć wysokiej jakości obrazy, nawet przez zupełnie niedoświadczone osoby.

Choć AI wymaga regulacji prawnych, które z pewnością z czasem wejdą w życie, to i tak znajdą się osoby skutecznie omijające przepisy. Dlatego też technologiczny świat oczekuje narzędzi weryfikujących czy obraz został wygenerowany, ale również takich, dzięki którym grafiki nie będą mogły być manipulowane bez autoryzacji.

PhotoGuard nie pozwoli modelom AI generować deepfake'ów (źródło: MIT)
PhotoGuard nie pozwoli modelom AI generować deepfake’ów (źródło: MIT)

Nad jednym z tego typu rozwiązań skupili się naukowcy z MIT (Massachusetts Institute of Technology), tworząc PhotoGuard. Technika ta pozwala na tworzenie niewielkich zmian wartości pikseli, które są niezauważalne dla ludzkiego oka. Jednak to, czego człowiek nie może dostrzec, są w stanie zauważyć systemy komputerowe. Dzięki temu fragmentowi obrazka model AI zostaje zakłócony, co sprawia, że nie jest w stanie manipulować grafiką.

W jaki sposób działa technika PhotoGuard?

Systemy komputerowe „rozumieją” obrazy zupełnie inaczej niż ludzkie oczy i umysł. Dla modelu grafika jest zbiorem punktów o określonych danych matematycznych, spośród których każdy oznacza konkretny kolor, a także jego położenie. Zaawansowana zasada działania PhotoGuard opiera się o dwie różne metody. Prostszym sposobem wprowadzania zakłóceń dla modeli jest atak kodera, trudniejszym natomiast dyfuzja.

Pierwszy rodzaj powoduje, że obraz otrzymuje nieco zmienione dane, dzięki czemu dla modelu AI grafika jest w pełni losowa, natomiast ludzkie oko nie dostrzega różnicy. Drugi sposób nie jest już tak łatwy, gdyż na tworzonym obrazie od samego początku do końca działania AI wprowadzane są niewidoczne zmiany. Oznacza to, że model zostaje oszukany, zwyczajnie „wydaje mu się”, że zmienił obraz, gdyż parametry uległy zmianie, jednak dla ludzkiego oka obraz pozostaje taki sam.

Choć PhotoGuard ma potencjał, możliwe jest wprowadzenie poprawek w innych narzędziach, które nie korzystają z AI. Mimo to, na rynku pojawiają się już programy skutecznie blokujące generowanie wszelkich zmian w grafikach, co sprawia, że stają się odporne na manipulacje.