
Uniwersytet Muzyczny Fryderyka Chopina wraz z Katedrą Akustyki Muzycznej i Multimediów Wydziału Reżyserii Dźwięku UMFC zapraszają na konferencję Sounds of the Metaverse. Inicjatorem i przewodniczącym komitetu organizacyjnego jest ad. dr Przemysław Danowski. CEL KONFERENCJI - integracja międzynarodowego środowiska badaczy i praktyków pracujących z dźwiękiem w środowiskach wirtualnych, w tym m.in. silnikach gier komputerowych. Konferencja ma format jednodniowy, złożony z prelekcji oraz prezentacji dzieł osób wywodzących się z różnych środowisk i zajmujących różnymi aspektami pracy z dźwiękiem w środowiskach cyfrowych i wirtualnych, a także z osobami badającymi środowiska wirtualne od strony kulturoznawczej. KONFERENCJA 🎵 26 listopada 2025 | godzina 10.00 📍 Sala Audytoryjno-Kinowa im. Karola Szymanowskiego W ramach tegorocznej edycji konferencji w szczególności poruszone będą tematy związane z wykorzystaniem sztucznej inteligencji w dziedzinie dźwięku i muzyki. Podczas konferencji będzie możliwość posłuchania immersyjnych prac dźwiękowych wyróżnionych podczas ósmej edycji konkursu Student 3D Audio Production Competition organizowanego co roku przez Instytut Muzyki Elektronicznej i Akustyki będący jednostką Uniwersytetu Artystycznego w Grazu. Wykład otwierający konferencję pt. “Three Perspectives on Music AI” zaprezentuje dr inż. Mateusz Modrzejewski, który jest adiunktem na Politechnice Warszawskiej, jest także badaczem zastosowania AI w muzyce oraz koncertującym muzykiem. Językiem konferencji jest język angielski. *** The third edition of a conference on sound and music in virtual environments „Sounds of the Metaverse". The aim of the conference is to bring together an international community of researchers and practitioners working with sound in virtual environments, including (among others) game engines. The conference follows a one-day format consisting of talks and presentations of works by people from diverse backgrounds who engage with various aspects of working with sound in digital and virtual environments, as well as by scholars examining virtual environments from a cultural studies perspective. This year’s edition will particularly address topics related to the use of artificial intelligence in the fields of sound and music. During the conference, attendees will have the opportunity to listen to immersive sound works recognized in the eighth edition of the Student 3D Audio Production Competition, organized annually by the Institute of Electronic Music and Acoustics, a unit of the University of the Arts in Graz. The opening lecture of the conference, titled “Three Perspectives on Music AI,” will be delivered by Dr. Eng. Mateusz Modrzejewski, an assistant professor at Warsaw University of Technology, a researcher into the applications of AI in music, and a performing musician. The language of the conference is English. 🎵 26.11.2025 | godzina 10.00 📍 Sala Audytoryjno-Kinowa im. Karola Szymanowskiego CONFERENCE PROGRAM: - 10:00–10:20 Welcome. Conference opening dr Przemek Danowski (Chopin University of Music) - 10:20–11:00 Keynote Speech: Three Perspectives on Music AI dr inż. Mateusz Modrzejewski (Warsaw University of Technology) - 11:00–11:30 Presentation & live act: Generative Algorithms as an Extension of Primitive Sounds, mgr Gniewomir Tomczyk - 11:30–12:00 Artists + Algorithms: Co-Creating Responsible AI in Music mgr, inż. Wojciech Hazanowicz (muzaic.ai) - 12:00–12:30 Upscaling HRTFs with generative AI dr inż. Paula Pietrzak (Warsaw University of Technology) - 12:30–13:30 LUNCH BREAK - 13:30–14:30 Listening session Presentation of the award-winning entries from the 9th edition of the Student 3D Audio Production Competition (S3DAPC). - 14:30–15:00 What is ZAIKS Lab and how can it help you? Agnieszka Cichocka (ZAIKS) - 15:00–15:30 Future Fragments, mgr Marcin Nowicki (Noviki Studio) - 15:30–16:00 COFFEE BREAK - 16:00–16:30 Detecting deepfake speech with convolutional neural networks inż. Mateusz Zych (Warsaw University of Technology) - 16:30–17:00 The use of AI in working with dialogues in movies dr Iwona Ejsmund, mgr Anna Balcewicz, mgr Michał Jakubiak (Chopin University of Music, The Feliks Nowowiejski Academy of Music in Bydgoszcz) - 17:00–17:30 Can deep neural networks recognize emotions from Polish speech? inż. Katarzyna Stec (Warsaw University of Technology) - 17:30–18:30 Workshop: Generative Audio Modelling with Transformers Daniel Faronbi (Music and Audio Research Laboratory, New York University) - 18:30–18:45 Conference closing polecamy | zapraszamy
Zakup biletu reklamowego odbywa się na stronie oficjalnego dystrybutora biletów. Pamiętaj, że jeśli miejsca są numerowane, a bilety są oferowane przez kilka firm, każda z nich udostępnia inny pulę miejsc do wyboru.