W dzisiejszych czasach technologia AI rozwija się w zastraszającym tempie, oferując użytkownikom możliwości, które jeszcze dekadę temu były nieosiągalne. Przykładem tego może być klonowanie głosu, które naśladuje czyjś głos tak, że brzmi prawie jak oryginał. Jednak taki postęp ten niesie ze sobą nie tylko możliwości, ale i ryzyko. Skomplikowane i często kontrowersyjne przypadki nadużycia mogą prowadzić do poważnych konsekwencji prawnych i społecznych.
Sztuczny głos ściąga na szkołę falę hejtu
Na początku roku w mediach społecznościowych pojawiło się nagranie, na którym było słychać głos dyrektora szkoły średniej w Pikesville, Erica Eiswerta. Miał on wygłaszać rasistowskie i antysemickie uwagi m.in. na temat swoich uczniów. Wkrótce wyszło na jaw, że to nagranie było fałszywe. Eksperci, którzy przeanalizowali dźwięk, zauważyli, że brzmi on nienaturalnie, jest zbyt czysty i nie ma w nim normalnych przerw na oddech.
Policja z hrabstwa Baltimore ustaliła, że za stworzeniem tego nagrania stał Dazhon Darien, były dyrektor ds. sportu tej szkole. Wykorzystał on szkolne komputery i narzędzia AI, by wygenerować fake’owy plik. W akcie oskarżenia napisano, że mężczyzna wielokrotnie wyszukiwał informację na temat aplikacji udostępnionych przez OpenAI i korzystał z modeli językowych, które wykorzystują technikę głębokiego uczenia się. Zrobił to, jak się przypuszcza, by się zemścić na dyrektorze Eiswertcie, który prowadził dochodzenie w sprawie nieprawidłowości finansowych w szkole. Wuefista został aresztowany na lotnisku.
Samo nagranie audio doprowadziło do poważnych konsekwencji — nie tylko do tymczasowego usunięcia dyrektora ze szkoły, ale także wywołało falę pełnych nienawiści wiadomości w mediach społecznościowych, a sama placówka otrzymywała liczne telefony z pogróżkami.
Środki ostrożności i regulacje prawne
W odpowiedzi na rosnące ryzyko nadużyć, OpenAI zdecydowało się w marcu ograniczyć dostęp do swojej platformy generującej głos, Voice Engine, oferując ją tylko wybranym użytkownikom. To zastosowanie środków ostrożności ma na celu zapobieganie nieautoryzowanemu wykorzystaniu głosów osób. W USA trwają też prace nad ustawami — No Fakes Act oraz No AI Fraud Act, które miałyby zapobiegać używaniu obrazu, głosu czy czyjegoś imienia bez zgody tej osoby.