Mózg
fot. Pixabay

AI tworzy zaawansowane teksty, które trudno odróżnić od pisanych przez ludzi

Sztuczna inteligencja i uczenie maszynowe to narzędzia, z którymi (wbrew pozorom) obcujemy na co dzień. Jak to możliwe? A kto podpowiada i uzupełnia wyrazy pisane przez Ciebie w telefonie? Owszem, to funkcja autouzupełniania tekstu, ale oparta o działanie właśnie sztucznej inteligencji. Teraz nawet dłuższe teksty naukowe mogą być tworzone przez system AI w połączeniu z NLP czy LLM.

System przetwarzania języka naturalnego, czyli NLP

NLP to obszar sztucznej inteligencji, który umożliwia urządzeniom poznanie i „zrozumienie” tekstu, zazwyczaj przejrzystego dla człowieka. Narzędzia nazywane dużymi modelami językowymi, czyli LLM, to systemy sieci neuronowych, które były szkolone na różnych tekstach, aby możliwy był proces odtwarzania i generowania języka.

W Kalifornii w 2020 roku w laboratorium badawczym znanym pod nazwą OpenAI został stworzony duży model językowy (LLM) GTP-3. GTP to, mówiąc wprost, generatywny wstępnie wytrenowany transformator, dzięki któremu możliwe jest automatyczne uzupełnianie tekstu na podstawie wcześniej otrzymanych podpowiedzi. Sieć została wyszkolona na podstawie dużej liczby książek i artykułów tak, aby samodzielnie mogła przewidywać kolejne fragmenty tekstu w oparciu o te wcześniej stworzone i przeanalizowane.

Duże modele językowe są już wykorzystywane i pozwalają na tworzenie tekstów w oparciu o słowa kluczowe. Na ten moment LLM używana jest m.in. do generowania tytułów lub takich zmian w tekście, które umożliwią wzrost czytelności powstającego tekstu.

Dziś już każdy może korzystać z aplikacji powstałej w OpenAI, która pozwala na tworzenie w pełni naturalnych zdań. Ceny zaczynają się od 0,0004 USD za tzw. 1000 tokenów, czyli około 750 słów.

Książka i okulary
Źródło: Pixabay

Czy LLM pozwala badaczom na generowanie tekstów?

Do stosowania GTP-3 w codziennym tworzeniu tekstów „przyznaje się” wiele osób. Ten wyjątkowy transformator pomaga w przerabianiu własnych wytworów, które dzięki niemu mogą stać się bardziej czytelne i jasne w odbiorze dla osób czytających. Jest to szczególnie istotne, gdyż najtrudniej odnaleźć i poprawić błędy powstałe we własnym tekście.

„Albo musisz na nim spać przez dwa tygodnie, albo możesz poprosić o to kogoś innego. A tym „kimś innym” może być GPT-3.”

Hafsteinn Einarsson, informatyk z Uniwersytetu Islandzkiego w Reykjaviku

GTP-3 pomaga również naukowcom w generowaniu tytułów na podstawie całego akapitu.

„Piszę akapit i to w zasadzie jak robienie zrzutu mózgu. Po prostu klikam „REWRITE”, aż znajdę wersję, która mi się podoba.”

Mina Lee, doktorantka informatyki na Uniwersytecie Stanforda w Kalifornii

OpenAI przeszkoliło GTP-3 również pod względem kodu oprogramowania. To pozwoliło na powstanie Codex czy też Copilot. Codex to wersja algorytmu, który powstał w oparciu o 150 GB zasobów GitHub. Z kolei platforma GitHub zintegrowała Codex z usługą Copilot. Dzięki temu GTP-3 jest w stanie tworzyć sugestie kodu.

Kodowanie AI
Źródło: Pixabay

TL;DR, czyli… „za długi; nie czytałem”

Systemy AI tworzą też uproszczone i skrócone wersje długich artykułów, które zazwyczaj obudowywane są masą tekstu. Ta „masa tekstu” tak naprawdę niewiele wnosi do naszego życia i wiedzy, choć pozwala na łatwe czytanie i przyswajanie informacji, jednak może znudzić czytającego.

Również chęć znalezienia krótkiej i prostej odpowiedzi na nurtujące nas pytanie jest czasami naprawdę trudne do osiągnięcia. Wyszukiwarka AI2 Semantic Scholar już wykorzystuje AI i udostępnia dzięki temu krótkie opisy tekstów, których ma około 200 milionów, głównie z tematów dotyczących informatyki i biomedycyny.

Systemy sztucznej inteligencji, pozwalające na tworzenie, wyszukiwanie czy też sugerowanie tekstu oraz kodu programistycznego, mogą wiele rzeczy ułatwić. Szczególnie jest to istotne dla badaczy i naukowców, którzy niejednokrotnie spędzają sporo czasu na tworzeniu tekstów, zamiast na badaniach. Rozwój AI może przynieść wiele pozytywnych skutków, pytanie jednak, czy to nie spowoduje zahamowania rozwoju ludzi, za których będą „myślały” maszyny?