IBM WatsonBeat – muzyczne science fiction

Pierwsza w Polsce prezentacja sztucznej inteligencji muzycznej będzie miała miejsce właśnie podczas Festiwalu Soundedit. Spotkanie, które poprowadzi Richard Daskas z IBM Research odbędzie się 28 października w Klubie Wytwórnia (16:00 – 16:45).

Czym jest WatsonBeat? To kognitywny system, który rozumie teorię muzyki i emocje oraz jak łączą się one między sobą i jakie korelacje występują między nimi. Używając tej wiedzy, Watson może skomponować oryginalną muzykę, która ma na celu poszerzyć oraz nasilić kreatywność i wyobraźnię twórców muzyki.

Istnieje wiele algorytmów uczenia się maszynowego (Machine Learning), które działają w tle WatsonBeat, ale dwie główne technologie to: sztuczna sieć neuronowa (zwłaszcza: sieć „głębokiego przeświadczenia” – deep belief network) oraz czynnik efektywnego uczenia się. Te dwa algorytmy analizują utwór muzyczny, uczą się go poznawczo i generują NOWĄ kompozycję, zainspirowaną oryginalnym utworem.

WatsonBeat pobiera dwa źródła jako swój zalążek do inspiracji: utwór, który lubisz lub który stworzyłeś oraz nastrój lub motyw, który chcesz, aby nowa kompozycja odzwierciedlała.

Oczywiście, rodzi się pytanie: czy WatsonBeat, skoro jest „tylko” maszyną, tworzy identyczne kompozycje dwa razy? Odpowiedź brzmi – nie! Modele, których używa WatsonBeat są niedeterministyczne w swojej naturze, dlatego nie wyprodukuje on nigdy identycznej, z jakąkolwiek poprzednią, kompozycji.

Jako IBM jesteśmy w trakcie udostępniania tej technologii na platformie BlueMix Cloud, a w nieodległym czasie WatsonBeat będzie dostępny dla każdego zainteresowanego jego pełnym wykorzystaniem. WatsonBeat jest technologią „kompletną i zamkniętą” i nie wykorzystuje aktualnie żadnych inter-konektorów aplikacyjnych (API). Ale jesteśmy w procesie zintegrowania WatsonBeat z analizatorem dźwięków i odczuć.

Watson Beat został eksperymentalnie zaprezentowany na takich wydarzeniach jak SXSW, Tribeca Film Festival, StartUp Fest Europe i 2017 Tech Open Air Music Hackday w Berlinie.

Dodatkowo podczas Festiwalu Soundedit przez cały czas trwania sobotnich warsztatów dostępne będą interaktywne stanowiska robocze z dostępem do WatsonBeat. Będziemy na nich pokazywać co można z technologią typu AI (Artificial Intelligence) robić w obszarze kreowania muzyki.

Richard Daskas – Muzyk i kompozytor, twórca oprogramowania w IBM Research. Jest kompozytorem muzyki przede wszystkim dla gier video i produkcji filmowej. Aktualnie pracuje w zespole przy projekcie Watson Beat w centrum badawczo-rozwojowym IBM w Austin w Teksasie, jako konsultant muzyczny, producent i twórca oprogramowania. Jego wiedza i doświadczenie w obszarze teorii muzyki pomogło ukształtować kognitywny system Watson w kierunku zrozumienia sfery emocjonalnej muzyki i wykorzystania jej w procesie jej tworzenia. Współpracował, w ramach projektu Watson Beat, z takimi muzykami i artystami jak: Alex da Kidd, Seth Rudetsky, Phony Ppl, Kawehi, and ELEW.

Zdjęcie: materiały prasowe IBM