Gen-1 jest bazującym na sztucznej inteligencji programem, zdolnym do obróbki wideo, za którego powstanie odpowiadają współtwórcy Stable Diffusion. Na ten moment zaprezentowano 5 działających funkcji, jednak prawdopodobnie nie jest to pełen wachlarz możliwości algorytmu. Co jednak na pewno potrafi ten niesamowity model?
Runway ujawnia Gen-1
Runway to współautorzy potężnego narzędzia, bazującego na sztucznej inteligencji do generowania obrazów z tekstu, jakim jest Stable Diffusion. Tak, twórców tego programu pozwali włodarze Getty Images, za bezprawne wykorzystanie zawartości z ich baz danych. Wracając jednak do samego Runway, zaprezentowali właśnie światu film, w którym możemy zobaczyć nowy projekt, nad którym obecnie pracują. Bez zaskoczenia, jest to narzędzie bazujące na algorytmach sztucznej inteligencji…
Gen-1 ma być programem, którego funkcje w pełni docenią między innymi twórcy treści internetowych. Będzie to bowiem AI zdolne do obróbki filmu na kilka różnych sposobów. Runway zdecydowało się nazwać ten model video-to-video, co mi osobiście przywodzi na myśl Midjourney ze swoim opisem text-to-image. Udostępniony w serwisie YouTube materiał pokazuje 5 działających funkcji, jednak z kontekstu wypowiedzi wynika, że w finalnej wersji produktu będzie ich więcej.
Co (przynajmniej na ten moment) potrafi edytor filmów?
Jak już zdążyłem napomknąć, twórcy pochwalili się pięcioma funkcjami, jakimi są;
- Stylization
- Storyboard
- Mask
- Render
- Customisation
Pierwszą z nich można przetłumaczyć jako „stylizację” i jest to nazwa nad wyraz adekwatna. Sztuczna inteligencja podmienia bowiem styl wybranego przez nas filmu na taki, który widnieje na wprowadzonym do programu obrazku. Druga funkcja jest równie imponująca i pozwala na wyrenderowanie wideo w oparciu o nagraną makietę! Trzecia, maska, pozwoli nam na zazneczenie obiektu w materiale i zmodyfikowanie go (np. poprzez dodanie czarnych kropek na psa).
Renderowanie z kolei przyda się w przypadku nieoskryptowanych modeli, które sztuczna inteligencja będzie w stanie samoistnie odpowiednio zmodyfikować, bazując jedynie na wprowadzonym obrazie lub formule (ang. prompt). Pod słowem „dostosowywanie” kryje się z kolei pełen potencjał tego narzędzia! Użytkownik, jak sama nazwa wskazuje, będzie w stanie dowolnie dobrać wartości modelu.
Wciąż nie do końca rozumiesz?
Nie dziwię się, trudno to pojąć, kiedy jedynie się o tym czyta. Wiem, bo sam wpierw jedynie przeczytałem o możlwościach narzędzia, a dopiero potem obejrzałem materiał na YouTube. Zostawiam go więc poniżej, a z ciekawostek mogę jedynie dodać, że Gen-1 został już poddany testom i wyniki nie pozostawiają złudzeń. Aż 73,53% użytkowników Stable Diffusion 1.5 stwierdziło, że woli propozycję Runway. Tego samego zdania było 88,24% osób, korzystających z narzędzia Text2Live.