Kodowanie, programowanie (źródło: Pixabay)
Kodowanie, programowanie (źródło: Pixabay)

ChatGPT był szkolony przez Kenijczyków. Zarabiali mniej niż 2 dolary za godzinę…

Oparty o działanie sztucznej inteligencji ChatGPT, produkcji OpenAI, okazał się być rewelacyjnym narzędziem. Jednak teraz wychodzi na jaw, że swoją wysoką jakość uzyskał przez niskopłatną pracę mieszkańców Kenii.

Toksyczne i szkodliwe treści, które algorytm AI musi znać

Jak donosi magazyn TIME internetowy hit ChatGPT, działający w oparciu o sztuczną inteligencję, rozwijał się dzięki pracy Kenijczyków „nagradzanej” mniej niż dwoma dolarami za godzinę. Ta katorżnicza praca polegała na ulepszaniu algorytmów wykorzystywanych przez ChatGPT, poprzez blokowanie szkodliwych treści i toksycznych danych, które znalazły się w zbiorach szkoleniowych dla AI.

Toksyczne treści, w postaci tekstów i obrazów, dotyczyły brutalności, seksizmu, rasizmu, nienawiści, bestialstw, morderstw, samobójstw, tortur, samookaleczeń, kazirodztwa, zoofilii i wykorzystywania seksualnego, również wobec dzieci.

Algorytm AI, zanim ujrzał światło dzienne, był przesycony tego typu danymi, które znalazły się w systemie, gdyż cały początkowy zasób został stworzony na podstawie otwartych treści, udostępnianych przez ludzi w internecie. Firma OpenAI postanowiła więc to zmienić i w tym celu (dosłownie) zaprzęgnęła Kenijczyków do pracy.

Dall-E koty grające w szachy fot. OpenAI
ChatGPT
Dall-E koty grające w szachy fot. OpenAI

Katorżnicza praca przy doskonaleniu algorytmu AI dla ChatGPT

Firma Sama, pochodząca z Kenii, otrzymywała więc mnóstwo fragmentów tekstu, które pochodziły z różnych źródeł, a które miałyby znaczącą szkodliwość, gdyby zostały wygenerowane przez algorytm. Część tekstów, pochodzących z ciemnych zakamarków internetu, była szczegółowym opisem bestialskich sytuacji i wydarzeń, natomiast pracownicy, traktowani jako tania siła robocza, mieli za zadanie oznaczać je jako treści szkodliwe. Otrzymywane przez pracowników wynagrodzenie plasowało się na poziomie od około 1,32 do 2 dolarów za godzinę, a jego wysokość zależna była od stażu pracy oraz generowanych wyników.

Ta sytuacja oraz wypowiedzi pracowników pokazują światu, że sztuczna inteligencja nie miałaby żadnych szans na powstanie i doskonalenie się, gdyby nie ludzie, ale przede wszystkim pokazuje niski poziom humanitaryzmu i szacunku.

W tym przypadku, chęć uzyskania jak największego zysku, spowodowała wykorzystywanie i torturowanie ludzi i, choć producent ChatGPT przyznaje się do nadanego kenijskiej firmie zlecenia, twierdzi, że nie wyznaczyła żadnych celów produktywności i zarządzanie zasobami ludzkimi, a płatności zleciła bezpośrednio firmie Sama.

sztuczna inteligencja OpenAI DALL-E "Dziewczyna z perłą"
Dziewczyna z perłą, źródło: Outpainting August Kamp via OpenAI

Traumatyczne wyznania pracowników

Wyznania pracowników są zatrważające i powodują ciarki na plecach. Osoby tam pracujące otrzymały prawo do odbywania sesji z doradcami „wellness”, jednak, jak twierdzą czterej pracownicy, spotkania zdarzały się rzadko i były kompletnie nieprzydatne, a dwóch przyznało, że dostało możliwość uczestnictwa tylko w zajęciach grupowych.

Mimo to, rzecznik Sama zaprzecza takim zarzutom, twierdząc, że terapeuci zdrowia psychicznego byli dostępni w każdej chwili. Jeden z pracowników przyznał, iż praca była torturami, a drastyczne wspomnienia natrętnie powracają.

Na czym polegała praca?

Troje spośród pracowników nad algorytmem AI dla ChatGPT przyznało, że do zadań należało zapoznanie się z fragmentami w liczbie od 150 do 250 w czasie dziewięciu godzin. Pojedynczy fragment zawierał od stu do ponad tysiąca słów. Jednak – jak twierdzi Sama – tekstów przypadało 70, natomiast widełki płac po opodatkowaniu zawierały się w kwocie od 1,46 do 3,74 dolara, choć nie poinformowano za jakie stanowisko pracownik mógłby otrzymać tą najwyższą opcję.

OpenAI
źródło: OpenAI

W umowach pomiędzy OpenAI a Sama natomiast, stawka godzinowa wynosiła 12,5 dolara, choć jak twierdzi rzecznik Sama, kwota ta obejmowała wszystkie koszty jak na przykład wydatki na infrastrukturę. Okazało się, że pracownicy Sama zajmują się także moderowaniem treści publikowanych na portalu Facebook, a ich praca za 1,5 dolara polega na oglądaniu zdjęć i filmów z aktów seksualnych odbywanych także z dziećmi.

Trauma wywołana u pracowników spowodowała zerwanie umowy w lutym zeszłego roku, czyli osiem miesięcy przed jej zakończeniem. Zastanawia mnie, kto podjął się przefiltrowania pozostałych treści i kto będzie zajmował się moderowaniem treści publikowanych na Facebooku, gdyż Sama w marcu zawiesza działalność związaną z przeglądaniem wrażliwych treści.

Umowa o wartości 3,9 miliona nie zostanie przedłużona, a to wiąże się bezpośrednio z utratą pracy przez 200 Kenijczyków.