sztuczna inteligencja
fot. Unsplash.com

Sztuczna inteligencja w walce z fałszywymi informacjami?

Do wniosku, że sztuczna inteligencja może okazać się przydatna w zwalczaniu fake newsów i innych informacji celowo wprowadzających czytelników w błąd, doszło brytyjskie GCHQ (Centrala Łączności Rządowej). Agencja, która jest częścią aparatu zapewniającego bezpieczeństwo Wielkiej Brytanii w sieci, idzie nawet o krok dalej – twierdzi, że AI przyda się również np. w zwalczaniu handlu dziećmi.

Sztuczna inteligencja rozpozna deepfake?

Wśród sposobów na walkę z fake newsami agencja podała m.in. rozpoznawanie nagrań wideo zmodyfikowanych przy użyciu technologii deepfake oraz zmanipulowanych materiałów audio. Agencja chce w ten sposób powstrzymać rozprzestrzenianie się fałszywych informacji, które negatywnie wpływają na społeczeństwo i niejednokrotnie mogą prowadzić do niebezpiecznych sytuacji. Co ciekawe, GCHQ wspomina również o identyfikowaniu „farm trolli”, które to właśnie w znacznej mierze mają być odpowiedzialne za wprowadzanie społeczeństwa w błąd.

GCHQ wspomina również o tym, że sztuczna inteligencja już teraz jest używana przez firmy czy instytucje, które za jej pomocą profilują daną osobę i „podsuwają” jej informacje, które mają ją ukierunkować na określony tok myślenia – i często czynią to za pomocą fake newsów. Czasem dzieje się to również z inicjatywy np. innych państw, które mają swój cel w dezinformowaniu społeczeństwa.

sztuczna inteligencja gchq
Siedziba agencji w Cheltenham. Foto: GCHQ.GOV.UK

Brytyjczycy idą o krok dalej i twierdzą, że ze względu na ogromne możliwości przerobowe sztuczna inteligencja może okazać się niezwykle przydatna w zwalczaniu m.in. handlu ludźmi czy identyfikowaniu cyberataków. W przypadku „traffickingu” sztuczna inteligencja mogłaby np. śledzić przepływy pieniężne na wielką skalę czy skupiać się na informacjach geograficznych i za pomocą zdjęć przewidywać trasę podejrzanych pojazdów.

Tradycyjnie już w przypadku sztucznej inteligencji rodzi się pytanie o etykę działań. GCHQ twierdzi, że jej jedynym celem jest bezpieczeństwo obywateli Wielkiej Brytanii i zobowiązuje się do narzucenia samej sobie pewnej etyki wykorzystywania systemów AI.

Czy możemy ufać rządowym agencjom w takich zapewnieniach? Czas pokaże.