Inżynierowie z amerykańskiego MIT przełączyli w tryb offline jedną z baz danych, która szkoliła systemy sztucznej inteligencji. Okazało się bowiem, iż AI zaczyna wykorzystywać informacje do używania rasistowskich oraz mizoginistycznych terminów w celu opisywania ludzi.
To nie pierwszy raz, kiedy sztuczna inteligencja nauczyła się zachowań rasistowskich. Przykładem niech będzie bot Tay stworzony przez firmę Microsoft, z którego firma musiała szybko zrezygnować – okazało się bowiem, iż sztuczna inteligencja zaczęła tworzyć obraźliwe posty w serwisie Twitter.
MIT rezygnuje z bazy danych i przeprasza
Zestaw szkoleniowy wykorzystywany przez MIT składał się z 80 milionów małych obrazków i został stworzony w 2008 roku do opracowania zaawansowanych technik wykrywania obiektów. Do tej pory służył on inżynierom do uczenia modeli uczenia maszynowego pozwalającego na identyfikację ludzi i przedmiotów na zdjęciach. Okazało się, iż algorytmy używały obraźliwych słów w stosunku do ludzi o ciemnej karnacji lub Azjatów, a także wykorzystywały niestosowne epitety w kierunku kobiet.
Kilku naukowców zwróciło uwagę na to, iż zestaw oznaczony jako 80 Million Tiny Images służący do uczenia sztucznej inteligencji od MIT posiada poważne wady etyczne związane z jego zastosowaniem. Wykorzystanie danych przez MIT mogło sprawić, iż każdy model AI stałby się rasistowski i seksistowski, a także posiadałby uprzedzenia.
MIT usunęło opisywany zestaw danych i wezwało wszystkich badaczy i programistów do usunięcia własnych kopii bazy.
Sztuczna inteligencja potrzebuje większych regulacji
Owszem, MIT przeprosiło za korzystanie ze swojego zestawu danych oraz obiecało poprawę, jednak sytuacja nie zdarza się po raz pierwszy. Od lat wielu czołowych ekspertów (w tym Elon Musk) informują o tym, iż sztuczna inteligencja powinna doczekać się większych i dokładniejszych regulacji – tak, aby można było ją lepiej kontrolować. Zatroskany etycznym aspektem rozwoju SI jest również Papież Franciszek.