Nowy model AI do tworzenia muzyki (źródło: Google)
Nowy model AI do tworzenia muzyki (źródło: Google)

Model generowania muzyki Lyria i dwa narzędzia AI – oto nowości Google

Specjaliści YouTube oraz Google DeepMind połączyli siły i opracowali nowy, zaawansowany model do generowania muzyki, a także kolejne dwa eksperymentalne narzędzia oparte o sztuczną inteligencję. Pozwolą m.in. tworzyć linie melodyczne do Shorts w oparciu o opis i wybranego artystę.

Model Lyria podstawą tworzenia muzyki

Technologiczny gigant zaprezentował kolejny model do generowania muzyki – jak twierdzi, jest on jak dotąd najbardziej zaawansowanym tworem. Lyria powstała przy udziale badaczy z Google DeepMind oraz ekspertów technicznych YouTube.

Jak zaznacza marka, muzyka to skarbnica wielu informacji, w której istotne jest każde uderzenie, nuta czy harmonia. Połączenie ich w dłuższy, ciągły utwór, wymaga ogromnego doświadczenia i praktyki, a proces jej tworzenia jest dużo bardziej zaawansowany niż na przykład mowy.

Lyria jest w stanie generować muzykę o wysokiej jakości, która obejmuje zarówno linię melodyczną emitowaną przez różnego rodzaju instrumenty, jak i część wokalną. Model ten może również przeprowadzać transformację uzyskanych dźwięków, a także tworzyć ich kontynuację zgodną z istniejącym już stylem.

Możliwości nowych narzędzi Google

Model Lyria został już wdrożony do dwóch eksperymentalnych narzędzi technologicznego giganta. Dream Track pozwala na wygenerowanie ścieżki dźwiękowej o długości 30 sekund, który można umieścić w filmach typu Shorts na platformie YouTube.

Zasada działania jest dość prosta: użytkownik wpisuje dowolnie wybrany przez siebie tekst, opisujący scenerię planowanego wideo, a z karuzeli wybiera piosenkarza, którego głos i muzyczny charakter zostanie użyty do utworzenia fragmentu muzyki.

Na liście współpracujących z Google artystów znaleźli się Alec Benjamin, Charlie Puth, Charli XCX, Demi Lovato, John Legend, Sia, T-Pain, Troye Sivana oraz Papoose. Liczba twórców, którzy otrzymają dostęp do tej nowej funkcji, jest ograniczona.

Technologiczny gigant opracował także drugie narzędzie, które w oparciu o zaśpiewaną czy zanuconą melodię jest w stanie wygenerować linię melodyczną emitowaną przez wybrany instrument, chór czy też tworzy akompaniament dedykowany do konkretnej ścieżki wokalnej.