"Joe Biden nie żyje", czyli jak sztuczna inteligencja generuje spam w Internecie
Joe Biden (by W4hr via Pixabay)

„Joe Biden nie żyje”, czyli jak sztuczna inteligencja generuje spam w Internecie

Organizacja zajmującą się oceną wiarygodności witryn informacyjnych, ujawniła raport, w którym dowiedziono, że sztuczna inteligencja jest wykorzystywana do tworzenia treści na co najmniej 49 stronach internetowych. Eksperci ostrzegają, że niskie koszty produkcji takich tekstów sprzyjają tworzeniu „śmieciowych” serwisów, które mają na celu osiąganie dochodu z kliknięć użytkowników.

Fałszywe treści i niska jakość

Już jakiś czas temu przewidywano, że strony internetowe tworzone przez sztuczną inteligencję staną się powszechne. Teraz nadszedł ten moment, kiedy narzędzia takie jak ChatGPT są łatwo dostępne, a co za tym idzie, te przewidywania stały się rzeczywistością.

Raport NewsGuard informuje, że badane strony często nie ujawniają swojej redakcji ani nie informują o sposobie kontrolowania treści. Wytwarzają one dużą ilość artykułów na różne tematy, takie jak polityka, zdrowie, rozrywka, finanse czy technologia. Część z nich promuje fałszywe treści, a niemal wszystkie charakteryzują się jałowym językiem i powtarzalnymi frazami, będącymi cechami charakterystycznymi dla AI.

Zidentyfikowane strony mają zazwyczaj ogólne nazwy, takie jak „Daily Business Post” czy „Market News Reports„. Przypisują one artykuły do fikcyjnych lub ogólnych autorów, a wiele z nich to zwyczajne streszczenia lub przeróbki artykułów publikowanych na łamach innych serwisów. Choć większość z nich nie szerzy dezinformacji, niektóre publikują rażące kłamstwa. Na przykład w kwietniu serwis o nazwie CelebritiesDeaths opublikował informację o rzekomej śmierci Joe Bidena.

Jak wykryć treści generowane przez sztuczną inteligencję?

NewsGuard wykorzystał błędy w tekście, aby zidentyfikować strony generowane przez AI. Wyszukał często używane frazy, które pomogły specjalistom odkryć miejsca w sieci, gdzie chatboty są wykorzystywane do tworzenia fałszywych opinii, czy innych niskojakościowych treści. Przeprowadzono także analizę artykułów, z wykorzystaniem narzędzi do wykrywania, takich jak GPTZero. Jednak warto tu podkreślić, że czasem i one zawodzą.

Wiele uznanych redakcji eksperymentuje z wykorzystaniem AI w celu obniżenia kosztów produkcji treści, co niestety nie jest do końca dobrym pomysłem. Kiedy CNET zaczął jej używać do pomocy w pisaniu postów, przegląd wyników pracy systemu wykazał błędy w ponad połowie opublikowanych artykułów.

Noah Giansiracusa, profesor nauk o danych, który pisał o fake news, powiedział, że twórcy takich stron eksperymentują, aby sprawdzić, co jest skuteczne, i będą nadal tworzyć tego rodzaju serwisy, biorąc pod uwagę niskie koszty produkcji. Już wcześniej było to mało opłacalne, ale przynajmniej nie było darmowe.