Firma DeepMind, od dziesięciu lat należąca do technologicznego giganta Google, opracowała aplikację SAFE. Jej zadaniem jest weryfikowanie informacji wygenerowanych przez boty sztucznej inteligencji, takie jak ChatGPT. Nowy system sprawdza poprawność treści za pomocą przeglądarki.
Rozwój AI, jej błędy i konieczność weryfikacji
Sztuczna inteligencja rozwija się w niezwykłym tempie. Praktycznie codziennie docierają do nas nowe wieści z technologicznego świata, w którym pierwsze skrzypce gra właśnie AI. Już ponad rok temu w ręce użytkowników Internetu trafił bot ChatGPT, za którym do walki o najbardziej inteligentne rozwiązania ruszyli najwięksi giganci, tacy jak Google czy Microsoft. Po drodze oczywiście mieliśmy przyjemność wypróbowania różnorodnych generatorów obrazów, dźwięków czy filmów.
Choć zainteresowanie i poziom zaawansowania w tworzeniu, zarówno tekstu, jak i obrazów czy nawet kodu programistycznego, jest wysoki, zdarza się, że sztuczna inteligencja popełnia niemałe błędy. Konieczne jest więc ręczne zweryfikowanie informacji otrzymanych od modeli AI.
Firma DeepMind to przedsiębiorstwo, które pod czujnym okiem Google, prowadzi zaawansowane prace nad technologiami opartymi o sztuczną inteligencję. Marka pochwaliła się swoim najnowszym narzędziem o nazwie Search-Augmented Factuality Evaluator (SAFE), którego zadaniem jest sprawdzanie wyników opracowanych przez narzędzia oparte o duże modele językowe (LLM), a więc np. ChatGPT.
Zasada działania systemu Google DeepMind
SAFE ma stać się sposobem na sprawdzenie odpowiedzi otrzymanych od sztucznej inteligencji. Aplikacja może zatem kontrolować wszelkie wyniki, a także przedstawi odnalezione nieścisłości. Zasada działania systemu jest podobna do ręcznego zweryfikowania wiadomości.
Aby sprawdzić poprawność przekazanych przez AI odpowiedzi użytkownicy botów najczęściej korzystają z wyszukiwarki internetowej, takiej jak np. Google. Nowo opracowana aplikacja SAFE działa w podobny sposób. Naukowcy opracowali LLM przeznaczony do rozłożenia wszelkich twierdzeń i faktów poruszanych w wygenerowanej przez sztuczną inteligencję treści. Kolejnym krokiem narzędzia jest sprawdzenie każdej informacji w wyszukiwarce Google, poszukując źródeł, a następnie porównując obie odpowiedzi i określając ich dokładność.
Naukowcy z DeepMind przeprowadzili testy nowego systemu sprawdzając około 16 tysięcy faktów, wykazując że SAFE jest dokładny w 76% przypadków. Każdy kto chce może skorzystać z narzędzia za pomocą otwartego kodu źródłowego, udostępnionego w serwisie GitHub.