AI jest naszą nową mocą. Tworzy dla nas obrazy, pisze dla nas (lub też za nas) teksty, jest w stanie „zdawać” egzaminy, ale, jak się okazuje, może być narzędziem do ułatwiania oszustw. W jaki sposób sztuczna inteligencja może nam zaszkodzić?
Sztuczna inteligencja o głosie bliskiej nam osoby
Szybkie tempo rozwoju sztucznej inteligencji i jej algorytmów w postaci np. generatorów tekstu, mowy czy obrazów jest zaskakujące i może znaleźć mnóstwo zastosowań. Jednak, jak się okazuje, może stać się również początkiem i narzędziem łamania prawa.
Generatory głosu, których działanie opiera się o sztuczną inteligencję, właśnie pokazały jak bardzo są niebezpieczne. Jak donosi najstarsza gazeta codzienna Stanów Zjednoczonych, The Washington Post, ludzie padają ofiarami oszustów podszywających się pod bliskie im osoby.
Niektórym generatorom głosu AI wystarczą zaledwie trzy sekundy głosu, aby mogły wytworzyć mowę, która przybierze emocjonalny ton głosu osoby mówiącej. Przez to wykrycie nieautentycznego głosu staje się praktycznie niemożliwe. Ofiarami oszustw, które wykorzystują ten efekt, padają najczęściej osoby starsze, chcące bez względu na wszystko pomóc dzwoniącej osobie.
Druga, co do wielkości, metoda oszustwa na terenie USA
Przy pomocy „udawanych” głosów bliskich, tylko w ciągu zeszłego roku, na terenie USA, ucierpiało ponad 5 tysięcy ofiar, które łącznie zostały oszukane na 11 milionów dolarów. Jak się okazuje, jest to druga, co do częstości występowania, metoda oszustwa zgłaszanego w 2022 roku. Pamiętajmy jednak, że takie sytuacje nie zdarzają się jedynie na terenie Stanów Zjednoczonych i mamy z nimi do czynienia również w Polsce.
Władzom i służbom trudno jednak zweryfikować oraz zlokalizować oszustów, kontaktujących się z ofiarami przez telefon. Mogą oni dzwonić do ofiar z każdego miejsca na świecie, więc trudno pociągnąć ich do odpowiedzialności i odzyskać utracone środki.