Bei der automatisierten Verarbeitung von multimodalen Musikdaten steht man aufgrund der Vielfältigkeit von Musik in Form und Inhalt vor großen Herausforderungen. Dazu gehören die Speicherung, das Verständnis und das Suchen von Informationen, die in unterschiedlichsten Ausprägungen und Formaten vorliegen. Obwohl mittlerweile viele Computerprogramme die Verarbeitung von Musik unterstützen, erfüllen diese noch längst nicht die weiter steigenden Wünsche der Benutzer. Vom 24. bis 28. Januar 2010 kommen führende Informatiker nach Schloss Dagstuhl, dem Leibniz-Zentrum für Informatik im nördlichen Saarland, um über verschiedene Aspekte multimodaler Musikverarbeitung zu diskutieren.
Der Bereich der multimodalen Musikverarbeitung ist äußerst vielfältig und berücksichtigt zahlreiche Anwendungen, wie das Auffinden bestimmter Musikpassagen, die Manipulation und Synthese von gesungener Sprache oder Audiodaten, die Segmentierung und Strukturierung von Musikdaten, das Mischen von Singstimmen und vieles mehr. Hat jemand beispielsweise keine schöne Singstimme, kann das Musikstück gesprochen werden. Mithilfe von entsprechenden Informationen könnte ein Programm daraus eine gesungene Version mit vorgegebener Melodie erzeugen. Dann hätte also auch jemand eine gute Chance, ein Opernstar zu werden, der gar nicht oder nur schief singen kann. Umgekehrt ist es denkbar, dass man aus vorhandenen Musikstücken die Singstimmen entfernt, so dass das Ergebnis z.B. für Karaoke-Veranstaltungen benutzt werden kann.
Ein weiteres Gebiet in der Musikverarbeitung ist die Musikanalyse. Eine zentrale Aufgabe hierbei ist die Entwicklung effizienter Such- und Navigationssysteme, die es dem Benutzer erlauben, einen Datenbestand hinsichtlich unterschiedlichster Aspekte zu durchsuchen. Wer Musikdatenbanken durchstöbert, möchte z.B. wissen, zu welchem Musikstück eine bestimmte Musikpassage gehört. Moderne digitale Musikbibliotheken enthalten jedoch multimediale Dokumente in zahlreichen Ausprägungen und Formaten, die ein Musikwerk auf verschiedenen Ebenen semantischer Ausdruckskraft beschreiben. Dazu gehören Text-, aber auch Bild- und Videodaten. Aufgrund der unterschiedlichen Datenformate bleiben leider viele Informationen ungenutzt, da sie mit vorhandenen Werkzeugen nicht handhabbar sind.
In dem Dagstuhl-Seminar Multimodal Music Processing werden nicht nur Aspekte der Musikanalyse erörtert, sondern auch die Organisation von Musikdaten, das Wiederfinden, die Navigation durch große Musikdatenbestände und die Grobrecherche auf strukturierten und unstrukturierten Musikdaten.
Die Organisation des Dagstuhl-Seminars haben übernommen:
- Simon Dixon (University of London, GB)
- Masataka Goto (AIST - Ibaraki, JP)
- Meinard Müller (Universität des Saarlandes und MPI für Informatik - Saarbrücken, DE)
Weitere Informationen zu dem Dagstuhl-Seminar Multimodal Music Processing mit Teilnehmerliste sind zu finden unter http://www.dagstuhl.de/11041