Musik trifft Informatik

Computergestützte Analyse von Gesangsaufnahmen

Der Mensch ist extrem gut darin, Melodiestimmen und Gesangstexte zu erfassen. Im Alltag fällt es uns oft nicht auf, welche Leistung wir unbewusst vollbringen, wenn wir etwa einem Lied im Radio lauschen und dabei mitsummen oder sogar den Text mitsingen. Für den Computer stellt es eine enorme Herausforderung dar, das gesungene Wort, den Ausdruck und die Stimmung des Gesangs, zu erkennen, insbesondere dann, wenn die Gesangsstimme mit anderen Stimmen und Klängen gemischt ist. Aber selbst die computergestützte Analyse von isoliert vorliegenden Gesangsstimmen führt zu faszinierenden, oft noch nicht vollständig gelösten Herausforderungen für die Wissenschaft.

In dem von der Deutschen Forschungsgemeinschaft (DFG) geförderten Projekt „Automatisierte Methoden und Werkzeuge zur Analyse und Strukturierung von Chormusik“ haben Wissenschaftler der Universität Erlangen in Kooperation mit dem Carus-Verlag daran geforscht, wie man als digitale Audiosignale vorliegende Gesangsstimmen hinsichtlich ganz unterschiedlicher musikalischer und akustischer Aspekte analysieren kann.

Unbegleitete Vokalmusik ist ein zentraler Bestandteil der westlichen Kunstmusik und stellt einen großen Teil des Carus-Musikkatalogs dar. Während bei begleitetem Gesang die Mitwirkung von Instrumenten stabilisierend wirkt, erfordert das A-Cappella-Singen (Singen ohne Begleitung) eine besondere Kontrolle der eigenen Stimme und Intonation (Feinabstimmung der Tonhöhe). Hierbei müssen die Sängerinnen und Sänger die Intonation ständig anpassen, um im Verhältnis zu den Mitsingenden harmonisch und melodisch in Einklang zu bleiben. Im DFG-Projekt spielten die Entwicklung von automatisierten Methoden zur Messung, Analyse und Anpassung von Intonationsabweichungen eine zentrale Rolle. Hierbei wurden Methoden der digitalen Signalverarbeitung und des maschinellen Lernens eingesetzt, um die Verläufe von Fundamentalfrequenzen aus den unterschiedlichen Gesangstimmen zu extrahieren und hinsichtlich lokal hervorstechender Frequenzcharakteristika zu analysieren. Durch einen Vergleich dieser Charakteristika mit einem adaptiv angepassten Gitter von Referenzfrequenzen wurden schließlich lokale Intonationsschwankungen abgeleitet und mittels statistischer Verfahren ausgewertet. In Experimenten wurde dieses [Verfahren]1 auf Basis mehrerer Aufnahmen von Anton Bruckners Chorstück Locus Iste ausgewertet, wobei der Carus-Verlag eine professionelle Aufnahme aus seinem Datenbestand zur Verfügung gestellt hat.

Prof. Dr. Meinard Müller ist Professor am Lehrstuhl für Semantische Audiosignalverarbeitung an den International Audio Laboratories Erlangen.

Sebastian Rosenzweig ist Doktorand unter Prof. Dr. Meinard Müller und arbeitet mit diesem zusammen am Projekt „Automatisierte Methoden und Werkzeuge zur Analyse und Strukturierung von Chormusik“.

Neben der Erfassung stellt auch die Anpassung von Intonationseigenschaften in Audiosignalen eine weitere zentrale Aufgabenstellung der [automatisierten Musikverarbeitung]2 dar. So könnte die Aufgabe eines Toningenieurs darin bestehen, lokale Intonationsschwankungen oder gar globale Intonations-Drifts über die Gesamtdauer einer Aufnahme auszugleichen. Im DFG-Projekt wurden [automatisierte Methoden zur adaptiven Tonhöhenverschiebung]3 entwickelt, die auf Algorithmen des sogenannten „Pitch-Shifting“ basieren. Diese Algorithmen verwenden Techniken des „Resampling“ und „Time-Scale Modification“ (TSM) und wurden exemplarisch für die Intonationsanpassung von A-Cappella-Aufnahmen angewendet. Kommerzielle Software-Werkzeuge zur Nachverarbeitung von Audio- und Musiksignalen beinhalten ähnliche Funktionalitäten schon seit vielen Jahren.  Dennoch stoßen viele dieser Verfahren gerade bei komplexen Choraufnahmen schnell an ihre Grenzen. Insbesondere seht man bei der lokalen und kontinuierlichen Anpassung von ausgewählten Gesangsstimmen (z. B. zur Korrektur nur einzelner Noten oder kurzer Passagen) für polyphonen Gesangsaufnahmen noch vor großen wissenschaftlichen Herausforderungen.

Referenzen:

1Christof Weiß, Sebastian J. Schlecht, Sebastian Rosenzweig, Meinard Müller: Towards Measuring Intonation Quality of Choir Recordings: A Case Study on Bruckner’s Locus Iste. In Proceedings of the International Society for Music Information Retrieval Conference (ISMIR): 276–283, 2019. DOI: 10.5281/zenodo.3527798

2Meinard Müller: Fundamentals of Music Processing – Using Python and Jupyter Notebooks. 2. Auflage, Springer Verlag, ISBN: 978-3-030-69807-2, 2021. DOI: 10.1007/978-3-030-69808-9

3Sebastian Rosenzweig, Simon Schwär, Jonathan Driedger, Meinard Müller: Adaptive Pitch-Shifting with Applications to Intonation Adjustment in A Capella Recordings. In Proceedings of the International Conference on Digital Audio Effects (DAFx), 2021.

Danksagung:

Wir bedanken uns bei den folgenden Personen (in alphabetischer Reihenfolge aufgeführt), die bei der Entwicklung der Suchfunktionalitäten und Aufarbeitung des Carus-Datensatzes mitgewirkt haben: Anna Bockisch, Julian Brandner, Iris Pfeiffer, Philipp Schlesinger, Angel Villar-Corrales, Christof Weiß.

0 Antworten

Hinterlassen Sie eine Antwort

Möchten Sie an der Diskussion teilnehmen?
Hinterlassen Sie Ihren Kommentar!

Schreiben Sie einen Kommentar

Ihre E-Mail-Adresse wird nicht veröffentlicht.