Gen-1, AI zdolna do obróbki wideo
źródło: YouTube, Runway

Gen-1 to AI zdolne do obróbki wideo. Ma ogromny potencjał!

Gen-1 jest bazującym na sztucznej inteligencji programem, zdolnym do obróbki wideo, za którego powstanie odpowiadają współtwórcy Stable Diffusion. Na ten moment zaprezentowano 5 działających funkcji, jednak prawdopodobnie nie jest to pełen wachlarz możliwości algorytmu. Co jednak na pewno potrafi ten niesamowity model?

Runway ujawnia Gen-1

Runway to współautorzy potężnego narzędzia, bazującego na sztucznej inteligencji do generowania obrazów z tekstu, jakim jest Stable Diffusion. Tak, twórców tego programu pozwali włodarze Getty Images, za bezprawne wykorzystanie zawartości z ich baz danych. Wracając jednak do samego Runway, zaprezentowali właśnie światu film, w którym możemy zobaczyć nowy projekt, nad którym obecnie pracują. Bez zaskoczenia, jest to narzędzie bazujące na algorytmach sztucznej inteligencji…

Gen-1 ma być programem, którego funkcje w pełni docenią między innymi twórcy treści internetowych. Będzie to bowiem AI zdolne do obróbki filmu na kilka różnych sposobów. Runway zdecydowało się nazwać ten model video-to-video, co mi osobiście przywodzi na myśl Midjourney ze swoim opisem text-to-image. Udostępniony w serwisie YouTube materiał pokazuje 5 działających funkcji, jednak z kontekstu wypowiedzi wynika, że w finalnej wersji produktu będzie ich więcej.

Co (przynajmniej na ten moment) potrafi edytor filmów?

Jak już zdążyłem napomknąć, twórcy pochwalili się pięcioma funkcjami, jakimi są;

  1. Stylization
  2. Storyboard
  3. Mask
  4. Render
  5. Customisation

Pierwszą z nich można przetłumaczyć jako „stylizację” i jest to nazwa nad wyraz adekwatna. Sztuczna inteligencja podmienia bowiem styl wybranego przez nas filmu na taki, który widnieje na wprowadzonym do programu obrazku. Druga funkcja jest równie imponująca i pozwala na wyrenderowanie wideo w oparciu o nagraną makietę! Trzecia, maska, pozwoli nam na zazneczenie obiektu w materiale i zmodyfikowanie go (np. poprzez dodanie czarnych kropek na psa).

Renderowanie z kolei przyda się w przypadku nieoskryptowanych modeli, które sztuczna inteligencja będzie w stanie samoistnie odpowiednio zmodyfikować, bazując jedynie na wprowadzonym obrazie lub formule (ang. prompt). Pod słowem „dostosowywanie” kryje się z kolei pełen potencjał tego narzędzia! Użytkownik, jak sama nazwa wskazuje, będzie w stanie dowolnie dobrać wartości modelu.

Wciąż nie do końca rozumiesz?

Nie dziwię się, trudno to pojąć, kiedy jedynie się o tym czyta. Wiem, bo sam wpierw jedynie przeczytałem o możlwościach narzędzia, a dopiero potem obejrzałem materiał na YouTube. Zostawiam go więc poniżej, a z ciekawostek mogę jedynie dodać, że Gen-1 został już poddany testom i wyniki nie pozostawiają złudzeń. Aż 73,53% użytkowników Stable Diffusion 1.5 stwierdziło, że woli propozycję Runway. Tego samego zdania było 88,24% osób, korzystających z narzędzia Text2Live.