Uwaga: Poniższy artykuł pomoże Ci w: Wersja demonstracyjna MuseNet | Generator muzyki AI!
Czy natknąłeś się na generator muzyki ze sztuczną inteligencją, MuseNeti zastanawiasz się, jak działa MuseNet? Cóż, wylądowałeś we właściwym miejscu. W tym artykule przyjrzyjmy się demonstracji MuseNet.
MuseNet jest oparty na głębokiej sieci neuronowej wykorzystującej jądra Sparse Transformer. Aby modelować swoje dane treningowe, analizuje pliki MIDI i tworzy wewnętrzny słownik muzyczny. Aby przewidzieć następujący token w sekwencji, niezależnie od tego, czy jest to dźwięk, czy tekst, GPT-2wielkoskalowy model transformatora, jest szkolony w zakresie korzystania z tej samej nienadzorowanej technologii ogólnego przeznaczenia, co MuseNet.
W wersji demonstracyjnej MuseNet uruchom MuseNet > Kliknij Wypróbuj MuseNet > Tryb prosty > Wybierz kompozytora i styl > MuseNet tworzy trzy wariacje lub Przejdź do trybu zaawansowanego > MuseNet tworzy cztery wariacje > Kliknij Resetuj lub aktualizuj, aby wygenerować nowe wariacje.
Kontynuuj czytanie, aby uzyskać szczegółowe informacje na temat wersji demonstracyjnej MuseNet oraz sposobu korzystania z wersji demonstracyjnej do tworzenia muzyki za pomocą kilku dotknięć.
Demonstracja MuseNetu
W wersji demonstracyjnej MuseNet uruchom MuseNet > Kliknij Wypróbuj MuseNet > Tryb prosty > Wybierz kompozytora i styl > MuseNet tworzy trzy wariacje lub Przejdź do trybu zaawansowanego > Wybierz styl, instrument > MuseNet produkuje cztery wariacje > Kliknij Resetuj lub aktualizuj, aby wygenerować nowe wariacje.
MuseNet może tworzyć kompozycje muzyczne trwające cztery minuty, które zawierają dziesięć różnych instrumentów i 15 różnych stylów oraz łączą gatunki, od country po Beatlesów i Mozarta. Sieć MuseNet nie została specjalnie zaprojektowana z myślą o naszym rozumieniu muzyki; zamiast tego nauczył się przewidywać następny znak w setkach tysięcy plików MIDI iw ten sposób odkrył wzorce harmonii, rytmu i stylu. Udostępniliśmy Ci kilka przykładów MuseNet:
1. Model otrzymuje polecenie stworzenia popowej piosenki przy użyciu fortepianu, gitary, basu, perkusji i pierwszych sześciu nut Nokturnu Chopina. Cały zespół wchodzi około 30 sekundy, a model z powodzeniem łączy te dwa style.
2. Tutaj model otrzymuje monit z fortepianem Bluegrass, gitarą, basem i perkusją.
3. Ta próbka jest wykonywana przy użyciu fortepianu Rachmaninowa. Zaczynając od zachęty, takiej jak fortepian Rachmaninowa, możemy wytrenować algorytm, aby generował próbki w określonym gatunku.
4. Musenet potrafi tworzyć proste muzyczne struktury melodyczne, jak w tej próbce naśladując Mozarta w pierwszej 6 notatki.
5. MuseNet może również trenować 72-warstwową sieć z 24 głowami uwagi, zwracając szczególną uwagę na kontekst 4096 tokenów. Może więc przypominać długofalową strukturę utworu, jak w kolejnej imitacji Chopina, ze względu na rozszerzony kontekst.
Jak korzystać z wersji demonstracyjnej w MuseNet?
Według ekspertów pracujących nad projektem, system może słuchać muzyki przez dłuższy czas i rozumieć ogólny kontekst melodii utworu, a nie tylko to, jak łączą się one ze sobą w krótkiej części. Używają plików MIDI (Musical Instrument Digital Interface) jako swoich monity I użyć sztuczna inteligencja konstruować nowe sekcje zamiast przekształcać słowa w obrazy. Renderowane dane wyjściowe są w formacie MIDI. Pamiętaj, ten projekt nie jest open source i nie możesz go znaleźć na GitHub. Teraz przeprowadzimy Cię przez demonstrację MuseNet dostępną na oficjalnej stronie OpenAI MuseNet, która składa się z dwóch trybów, a mianowicie trybu prostego i trybu zaawansowanego, za pomocą którego możemy stworzyć piosenkę!
Krok 1: Otwórz MuseNet.
Krok 2: „Tryb prosty”, który jest domyślnie pokazany pod pozycją „Wypróbuj MuseNet”, w której można posłuchać tony wstępnie wygenerowanych, losowych, nieprzetworzonych próbek.
Krok 3: Użytkownik ma możliwość rozpoczęcia procesu tworzenia poprzez wybór kompozytora lub stylu.
Krok 4: Następnie MuseNet generuje trzy warianty.
Krok 5: Następnie możesz komunikować się z modelem bezpośrednio w trybie zaawansowanym („Ustawienia zaawansowane”) i tworzyć zupełnie nowe kreacje.
Krok 6: MuseNet pozwala wybrać styl, intro, instrument i liczbę żetonów. Tutaj liczba tokenów odnosi się do rozmiaru klipu.
Krok 7: Teraz MuseNet generuje muzykę w wersji zaawansowanej w kilka sekund.
Krok 8: Możesz także kliknąć ikonę OpenAI, aby wygenerować więcej muzyki. MuseNet może wygenerować do czterech wariacji.
Krok 9: Aby wygenerować nowe odmiany, jeśli ci się nie podobają, kliknij „resetuj” lub „aktualizuj”.
Dzięki tym krokom możesz łatwo tworzyć muzykę za pomocą wersji demonstracyjnej MuseNet.
WrastrUP
Dotarliśmy do końca wpisu. Algorytmy głębokiego uczenia oparte na dogłębnej analizie danych są podstawą generatorów muzyki AI. Zbierasz wiele utworów muzycznych, przetwarzasz je, a następnie przekazujesz te informacje AI. Mamy nadzieję, że ten artykuł w jasny sposób wyjaśnił działanie wersji demonstracyjnej MuseNet. Więcej informacji i ciekawych artykułów znajdziesz na naszej stronie internetowej pod adresem Deasilex.
Sugerowane lektury
Często Zadawane Pytania
Q1. Jak długo trwa sztuczna inteligencja Jukebox?
Odp. Szacują, że każda 20-sekundowa próbka muzyki zajmie około 10 minut, ale bądź przygotowany na to, że zajmie to do 20 minut. Możesz uzyskać dostęp do muzyki, którą właśnie utworzyłeś na Dysku Google, gdy ta sekcja kodu zakończy działanie!
Q2. Czy sztuczna inteligencja zastąpi muzyków?
Odp. Chociaż sztuczna inteligencja nie zastąpi muzyków w przekazywaniu wrażeń zmysłowych poprzez muzykę, zrozumienie i wykorzystanie jej może stać się coraz ważniejsze dla muzyków i wszystkich innych osób zaangażowanych w obecny przemysł muzyczny.
Q3. Czy MuseNet to kreatywna sztuczna inteligencja?
Odp. Jak każdy system sztucznej inteligencji, który tworzy muzykę, sztukę lub prozę, MuseNet nie jest tak pomysłowy ani innowacyjny, jak prawdziwy muzyk. Polega na identyfikowaniu wzorców we wcześniej ukończonych pracach, a następnie recytowaniu pewnych wariacji statystycznych.
Q4. Co to jest muzyczny interfejs API?
Odp. Czym jest interfejs API muzycznej bazy danych? Usługa internetowa lub interfejs API REST, który pobiera i zwraca informacje o muzyce, w tym informacje o utworach, tekstach, wykonawcach lub albumach, jest zwykle określany jako interfejs API muzycznej bazy danych. Deezer, iTunes, musiXmatch i inne to przykłady dobrze znanych interfejsów API muzycznej bazy danych.
Pytanie 5. Jak sztuczna inteligencja jest wykorzystywana w muzyce?
Odp. Sztuczna inteligencja tworzy stale zmieniające się pejzaże dźwiękowe dla skupienia i relaksu, zasila systemy rekomendacji serwisów streamingowych, ułatwia miksowanie i mastering dźwięku oraz tworzy muzykę bez problemów z prawami autorskimi.