Słyszałeś kiedykolwiek o '”halucynacjach” sztucznej inteligencji? Choć może brzmieć jak coś z filmu science fiction, to jest to rzeczywistość, z którą borykają się niektóre najnowocześniejsze systemy AI na świecie. Kiedy mówimy o tym zjawisku, mamy na myśli sytuację, w której stworzone modele, takie jak ChatGPT autorstwa OpenAI czy Bard Google’a, wymyślają zupełnie nowe informacje. Niestety, te wytwory często skutkują rozpowszechnianiem nieprawdziwych danych, tworząc potencjalne problemy z dezinformacją.
Zmiana podejścia, by zmierzyć się z dezinformacją
W odpowiedzi na ten problem, OpenAI – które zaskoczyło wszystkich, gromadząc 100 milionów użytkowników miesięcznie w rekordowo krótkim czasie – postanowiło wziąć byka za rogi. W swoim najnowszym raporcie zaproponowali świeże spojrzenie na ten problem.
Okazuje się bowiem, że nawet najbardziej zaawansowane modele AI, mogą czasami „wymyślać” fakty, zwłaszcza kiedy są niepewne. Aby tego uniknąć, zaproponowano inny sposób treningu sztucznej inteligencji. Zamiast gratyfikować je tylko za prawidłowy wynik końcowy, modele powinny „nagradzać” same siebie za każdy pojedynczy, poprawny krok, który wykonują, gdy dochodzą do odpowiedzi. To podejście zwane jest „nadzorem procesu”, a nie „nadzorem wyniku”.
Czy to zadziała? Eksperci to sprawdzą
Pomimo optymizmu ze strony OpenAI, niektórzy eksperci są sceptyczni. Ben Winters, starszy doradca w Elektronicznego Centrum Informacji o Prywatności, powiedział, że chciałby zbadać pełen zestaw danych i przykłady zastosowania nowej metody, zanim oceni jej skuteczność. Inni badacze, tak jak Suresh Venkatasubramanian, dyrektor centrum odpowiedzialności technologicznej na Uniwersytecie Brown, uważają, że zaproponowane rozwiązanie to na razie tylko wstępne obserwacje i będą one wymagały dalszych badań.
Czy nowa strategia OpenAI okaże się skuteczną bronią przeciwko dezinformacji? Tego jeszcze nie wiemy. Na razie jest to jednak ciekawy krok naprzód w dążeniu do większej przejrzystości i odpowiedzialności w świecie sztucznej inteligencji.