Eksperyment pokazał nowe, nieznane wcześniej możliwości technologii AI

Na początku tego roku Google zademonstrowało aplikację AI noszącą nazwę MusicLM, która po zaprezentowaniu jej tekstu lub grafiki, potrafi poddać taki zasób analizie i napisać pasujący do niego utwór muzyczny dowolnego gatunku. Firma poszła teraz krok dalej i stworzyła aplikację AI, która wykorzystuje do tego celu impulsy generowane przez ludzki mózg.

Firma podniosła tym samym możliwości sztucznej inteligencji na nowy poziom, gdyż komponuje ona muzykę po odczytaniu aktywności mózgu Rozwiązanie nosi nazwę Brain2Music i za dane wejściowe służą mu impulsy odczytywane z ludzkiego mózgu przez aparat rezonansu magnetycznego (fMRI). Impulsy są rejestrowane wtedy, gdy pacjent słucha utwory muzyczne różnego gatunku, takie jak blues, muzyka klasyczna, utwory country, hip-hop, jazz, pop czy rock.

Naukowcy wykorzystali te dane do wytrenowania sieci neuronowej, chcąc w te sposób dowiedzieć się, jak związek zachodzi między wzorcami aktywności mózgu a różnymi elementami odtwarzanego utworu muzycznego, takimi jak określony rytm czy nastrój. Okazało się że wygenerowana w ten sposób muzyka bardzo przypominała oryginalne bodźce pod względem gatunku, instrumentacji i nastroju. Należy przy tym zauważyć, że badanie skupiło się na elementach muzycznych, a nie tekstowych, więc tak stworzona muzyka nie przypomina wokali z oryginalnych piosenek.

Zobacz również:

Eksperyment udowodnił zdolność modelu do tworzenia muzyki podobnej do tej, jakiej słuchały osoby, w oparciu o określone wzorce impulsów generowanych przez ich mózgi. Pokazał też nieznane wcześniej możliwości technologii AI w dziedzinie generowania muzyki.

W celu komercyjnej reprodukcji treści Computerworld należy zakupić licencję. Skontaktuj się z naszym partnerem, YGS Group, pod adresem [email protected]

TOP 200