Skip to end of metadata
Go to start of metadata

3.2 Archäologie

In der Musikwissenschaft werden bislang nur in Teilbereichen computerbasierte Methoden eingesetzt, um aktuellen Forschungsfragen nachzugehen. Die größte Verbreitung erfahren reine Datenbank-Angebote wie die Virtuelle Fachbibliothek Musikwissenschaft (ViFaMusik), die Informationen aus Bibliothekskatalogen, dem Internationalen Quellenlexikon der Musik (RISM, s.u.) und anderen online zugänglichen Quellen bündelt. Während derartige Angebote unzweifelhaft eine große Arbeitserleichterung für Musikwissenschaftler darstellen, bieten sie kaum eigenständige computerbasierte Forschungsperspektiven. Solche werden dagegen vor allem in zwei Bereichen adressiert: Einerseits im weitläufigen Feld des Music Information Retrieval, also der automatisierten Analyse von Audiodaten oder digitalen Notentexten, andererseits im Bereich digitaler Musikedition. Der erste dieser Bereiche arbeitet häufig mit relativ detailarmen Daten, etwa im MIDI-Format (s.u.), die eine Beschränkung auf die wesentlichsten Parameter erleichtern. In der Musikphilologie und angrenzenden Bereichen wird dagegen in der Regel mit möglichst detailreichen Daten gearbeitet; grundsätzlich ist hier eine größere Nähe zu anderen digital arbeitenden Geisteswissenschaften bzw. den sogenannten Digital Humanities festzustellen. Für musikwissenschaftliche Forschungsarbeiten sind dabei unter anderem folgende Datenobjekte von besonderem Interesse:1

  • Notentexte/Notate
  • Klang- und/oder Videoaufzeichnungen (Audio/Video)
  • Klangerzeuger (Musikinstrumente, Stimme) und Klangerzeugung (Akustik)
  • Interpreten, Komponisten, Kopisten, Drucker, Mäzene, Institutionen, Organisationen, Kulturen
  • Ikonographien
  • Texte zur Geschichtsschreibung, Musiktheorie, -ästhetik, -psychologie, -soziologie

Während in vielen Bereichen, die sich vom Objekttyp her mit Gegenständen anderer Wissenschaften überschneiden, keine gesonderten Beschreibungssprachen notwendig sind bzw. objektabhängig gängige Systeme entsprechend erweitert werden können, müssen bei Notentexten aufgrund der objektspezifischen Anforderungen für die Digitalisierung und Dokumentation der entsprechenden Daten eigene fachspezifische Standards angewendet werden.

Etliche Teildisziplinen sind dagegen geprägt vom Umgang mit Texten, die sich trotz sehr fachspezifischer Inhalte oder Strukturen gut mit Hilfe des TEI-Standards darstellen lassen, der auch in anderen Disziplinen als erste Wahl für die wissenschaftliche Erfassung von Textmaterialien gilt und meist in Kombination mit entsprechenden Normdaten genutzt wird. Nur eine kleine, jedoch kontinuierlich wachsende Zahl von Musikwissenschaftlern arbeitet bislang mit TEI; als Regel muss dagegen noch die Verwendung üblicher Textverarbeitungs- oder Datenbankprogramme angesehen werden; öffentlich verwertbare Metadaten fallen dabei meist nicht an bzw. werden nicht bereitgestellt. Eine spezielle Herausforderung stellen in diesem Kontext gemischte Texte (etwa Musiktraktate mit Notenanteilen o.ä.) dar – hier müssen ggf. mehrere Standards kombiniert werden, um die Gegenstände vollständig erfassen zu können.

Musikinstrumente, die meist im Kontext von Museen digital erfasst werden, können ebenfalls mit interdisziplinären Standards beschrieben werden. Das 2009 gegründete MIMO (Musical Instrument Museums Online) verwendet zur Auszeichnung von Musikinstrumenten beispielsweise den interdisziplinären Standard LIDO (Lightweight Information Describing Objekts), eine XML-Darstellung zur Erfassung verschiedenster musealer Objekte.2

Standardisierte Daten spielen eine zentrale Rolle in dem seit 1952 weltweit tätigen musikwissenschaftlichen Katalogisierungsprojekt RISM (Répertoire Internationale des Sources Musicales). Die inzwischen online zugänglichen über 1.000.000 Datensätze werden immer häufiger als Metadaten für die damit verbundenen Digitalisate der Musikalien aus den jeweiligen Bibliotheken benutzt, die dann oft direkt aus dem RISM-Katalog abrufbar sind.3

Für den Austausch und die Analyse akustischer Daten hat sich seit den 1980er Jahren das Binärformat MIDI (Musical Instrument Digital Interface) etabliert, das lediglich akustisch relevante Informationen speichert (und damit u.a. eine Berücksichtigung von Enharmonik, die für weiterführende musikanalytische Fragestellungen von zentraler Bedeutung ist, ausschließt). Aufgrund dieser Einschränkungen, die auch den Bereich der Metadaten betreffen, wird MIDI im wissenschaftlichen Bereich beinahe ausschließlich zur eher in die Breite ausgerichteten Analyse großer Datenbestände verwendet. Als Austauschformat digitaler Notensatzdaten wurde es inzwischen weitgehend vom diesbezüglich deutlich mächtigeren MusicXML (s.u.) verdrängt. Ähnliche Einschränkungen wie bei MIDI gelten dagegen auch für MP3-Dateien, für die mit ID3 (Identify an MP3) allerdings ein komplementäres, wenn auch weiterhin rudimentäres Metadatenformat geschaffen wurde.

Ausdrücklich für die Beschreibung von Metadaten für jegliche Form von multimedialen Anwendungen wurde dagegen in jüngerer Zeit MPEG-7 (Multimedia Content Description Interface) entwickelt. Angesichts der komplexen Situation bei Audiodaten wird hier zunächst auf eine detailliertere Beschreibung verzichtet.

Bei der Verwendung von interdisziplinären Standards im Textbereich müssen für musikwissenschaftliche Vorhaben meist zusätzlich Angaben von (teils) fachspezifischen Informationen in den Schemata-Angaben hinzugefügt werden, wie Verweise auf musikalische Werke, Rollen, bestimmte Quellen, Aufführungen, Aufführungsorte, Aufführungsbesprechungen, Tonarten usw.

Sofern eine solche disziplinspezifische Anpassung erfolgt, können also – abgesehen von Notentexten oder akustischen Daten – viele der im Fokus musikwissenschaftlicher Fragestellungen stehenden Forschungsobjekte in ausreichender Weise mit Hilfe vorhandener interdisziplinärer Standards dargestellt werden. In diesen Bereichen stellen sich daher kaum zusätzliche Anforderungen an die Interoperabilität von Forschungsdaten.

 

Musikphilologie – eigene fachspezifische Standards für Notentexte4

Im Folgenden werden die Möglichkeiten der Datenauszeichnung von Notenmaterial anhand der Datenformate MuseData, Humdrum, MusicXML und MEI vergleichsweise vorgestellt, die alle primär für die Auszeichnung des eigentlichen Notentextes entwickelt wurden. Eine qualitativ hochwertige und vollständige Erfassung der Metadaten wird hingegen bei vielen Standards noch nicht erreicht. Dieser Sachverhalt wird durch die in der Regel knappe Form und die ausschließlich interne Verwaltung aller erhobenen Metadaten innerhalb einer Datei bestärkt. Einzig der relativ junge MEI-Standard bietet hier umfassende Möglichkeiten, die den Erfordernissen einer wissenschaftlichen Nutzung gerecht werden. 

Grundsätzlich sind bei den nachfolgend genannten Notationsstandards (die nicht mit der Nutzung von Notationsprogrammen verwechselt werden dürfen) zwei Formen zu unterscheiden: ältere, ASCII-basierte Repräsentationsformen, sowie jüngere XML-basierte Auszeichnungssprachen. Viele der älteren Formate wurden gezielt nur für die Erfassung und die maschinelle Verarbeitung einstimmiger Phänomene (z.B. für Volkslied-Analysen, Themensuche, Aufspüren thematischer Korrespondenzen usw.) entwickelt; Mehrstimmigkeit wurde zumeist erst in späteren Formaten thematisiert. Allerdings spielt die Unterscheidung der Datengrundlage gerade bei der Beurteilung der Leistungsfähigkeit der Formate im Metadatenbereich eine eher untergeordnete Rolle, lag doch – wie erwähnt – der Schwerpunkt in allen Fällen eindeutig auf der Erfassung des eigentlichen Notentextes.

Um eine bessere Vergleichbarkeit der einzelnen Codierungsbeispiele zu ermöglichen, wurden in jedem Standard die Metadaten sowie einige ausgewählte musikalische Phänomene ausgezeichnet. Bei den Metadaten bildete dabei Robert Schumanns Lied Der Abendstern op. 79/1 die Codierungsgrundlage. Bei den Notentexten wird auf bereits bestehende Codierungen des Bachchorals Befiehl du deine Wege zurückgegriffen, die Johannes Kepper im Rahmen seiner Dissertation erstellt hat. Dort sind auch ausführliche Beschreibungen der Codierungsformate nachzulesen (vgl. Anm. 4). 

Die nachfolgende tabellarische Übersicht zeigt zusammenfassend die den genannten Standards innewohnenden Optionen zur Codierung des Notentextes:

KriteriumMuseDataHumdrumMusicXMLMEI
Allgemeine Informationen
Entstehungszeit

1983

 

1990

 

Entwicklung seit 1998 (?) in Anlehnung an MuseData, Veröffentlichung 2004

 

seit 1997

 

Entwickler, InitiatorWalter B. Hewlettmaßgeblich von David Huron entworfen

Copyright liegt bei Recordare Inc. (inzwischen aufgegangen in MakeMusic Inc. -> Entwickler von Finale). Entwickelt von Michael Good

von Perry Roland in Anlehnung an TEI initiiert und maßgeblich entwickelt | seit 2006 community-driven
LizenzbedingungenKeine eindeutige Aussage zur Lizenz. Formatbeschreibung steht frei zur Verfügung.

Keine eindeutige Aussage zur Lizenz. Formatbeschreibung steht frei zur Verfügung.

Format ist unter proprietärer, aber nicht OSS-kompatibler Lizenz zur Benutzung freigegeben. Datenformat und Dokumentation sind unter Educational Community License 2.0 freigegeben.
Zielsetzung / Art der CodierungLogische Codierung, d.h. ohne präzise Informationen zur graphischen Domain. Ermöglicht Analysen und einfache (d.h. nicht-diplomatische) graphische Wiedergabe. Richtet sich an wissenschaftliches Publikum.Logische Codierung, d.h. ohne präzise Informationen zur graphischen Domain. Speziell ausgerichtet auf die Analyse der Daten mit Hilfe des Humdrum Toolkit –> Format ausgelegt auf Computational Musicology.XML-Umsetzung des MuseData-Datenmodells. Klare Ausrichtung auf Datenaustausch zwischen Notationsprogrammen. Ermöglicht Unterscheidung zwischen graphischer und logischer Domain.Nicht zweckgebundenes Datenmodell für verschiedene wissenschaftliche Anwendungsgebiete, u.a. Musikedition und bibliographische Erschließung. Durch modularen Aufbau an verschiedene Szenarien anpassbar.
CodierungsbasisASCIIASCIIXMLXML
Welche Art von Musik kann erfasst werden?CWN

CWN, über Erweiterungen auch Neumen und andere Notationsformen

CWNCWN, Neumen, Mensuralnotation, Tabulatur
Exportmöglichkeiten aus Notensatzprogrammen (aktuelle Versionen aus Capella, Finale und Sibelius)Export aus Finale war in früheren Versionen möglich, diese Funktion wurde inzwischen entfernt.Nur über Zwischenschritte (MusicXML).Finale, Sibelius, CapellaEin Plugin für Sibelius ist als Beta-Version verfügbar. Sonst nur über MusicXML.
Formen der Musikcodierung
Musikalische PhänomeneAusführliche Übersicht verschiedenster musikalischer Phänomene verfügbar in den Dagstuhl Seminar Proceedings 2009

Verweise/interne Verlinkungennicht möglichnicht möglichmöglichmit Hilfe von eindeutigen IDs
Einsatz für editorische Zwecke
Variantencodierungnur über eigenständige Erweiterungenexplizit darauf ausgerichtet
Technische Aspekte / Nutzbarkeit der Daten

Schnittstellen/Konverter zu anderen Datenformaten
(siehe dazu auch music-notation.info

Lilypond, Humdrum, MusicXMLLilypond, MuseData, MusicXML, MEIumfangreiche Import-/Exportmöglichkeiten (vgl. dazu die Aufstellung zu MusicXML von music-info.info)MusicXML, MUP, ABC, Humdrum, VexFlow, SCORE
Eignung für Notensatzbedingt geeignetbedingt geeignetvielfältige Möglichkeiten erhöhen die Eignunggeeignet, die Darstellung von Varianten erfordert ein spezielles Tool, das mit dem MEI Score Editor derzeit entwickelt wird.
Möglichkeit der visuellen Eingabe (per Hand etc.)unkomfortabelunkomfortabeldirekter Export

MEI Score Editor MEIse (Download-Option auf Sourceforge.net), VexFlow, ABC, Verovio

Weiterentwicklung / Dokumentation / Vermittlung
Weiterentwicklung des Formats / Community

Weiterentwicklung des Formats nur durch den Rechteinhaber, aber in Abstimmung mit einer aktiven Community | Mailingliste

sehr aktive Community | Mailingliste

Dokumentationumfangreich, aber gelegentliche Inkonsistenzen zu den vorhandenen Corporasehr ausführliche DokumentationDokumentation von MusicXML 3.0MEI Guidelines
BeispieleMuseData collection of virtual musical scores | Corpus-Aufbau weitgehend abgeschlossenvorhandenkürzere Beispiele auf der MakeMusic-Websiteumfangreiche Beispielsammlung auf der Website der Music Encoding Initiative (MEI Sample Collection)
Vermittlung an EndnutzerVerlinkung auf Erklärung in Eleanor Selfridge-Field, Beyond MIDI. The Handbook of Musical CodeHumdrum User GuideTutorial auf der MakeMusic-Websiteumfangreiches Workshop-Angebot, nach Schwierigkeitsgrad gegliederte Tutorials auf der Website der Music Encoding Initiative (MEI 1st)

Hinsichtlich der Möglichkeiten zur Angabe musikalischer Metadaten bieten nahezu alle genannten Formate (mit Ausnahme von MEI) nur sehr eingeschränkte Möglichkeiten, die zumeist wenig mehr als eine eindeutige Identifizierung der Dateien erlaubt; vgl. dazu die folgende Tabelle:

KriteriumMuseDataHumdrumMusicXMLMEI
Personendaten und FunktionsbezeichnungenNennung in spine 13 möglichNennung

nur Nennung ohne Referenzierungsmöglichkeit | <creator/> | <encoder/>

mit GND-URI oder anderen Normdateien verlinkbar; allen Personen kann z.B. durch die MARC Code List for Relators eine Funktion zugewiesen werden | <persName role="composer"/> etc. 

Publikationsangaben

Nennung

wenig detailliert | <source/>

detaillierte Angaben möglich | <pubStmt/>

Einbettung in den Kontext

möglich, z.B. Inhaltsangaben der Quelle(n), zu dem ein Einzelstück gehört | <contents/> oder Reihenangaben <seriesStmt/>

IncipitangabeCodierung des Incipits von Musik und Text möglich
Physische Beschreibung der Quelle

sehr geringe Möglichkeiten | <credits/> | Spezifizierung über <credit-type/>-Elemente als reine Textfelder, z.B. <credit-type>plate number</credit-type>

sehr ausführlich möglich in der <physDesc/>
KlassifikationsvermerkAngabe von Klassifikationen, Thesauri etc. und einzelnen darin enthaltenen Themen möglich <classification/>
differenzierte Angabe von Einzelstück und QuellenNennungNennungnicht möglich, Angaben beziehen sich ausschließlich auf Einzelstückbeide Beschreibungen detailliert möglich <workDesc/> (Einzelstück) und <sourceDesc/> (Quellen)

Beschreibungselemente des Werkes

sehr geringsehr gering

sehr gering | <partname/>

sehr umfangreich | <workDesc/>


FRBRneinneinneinImplementierung des FRBR-Modells erfolgte 2013 in Form des FRBR modules, das optional gewählt werden kann5

Vergleich der Möglichkeiten musikwissenschaftlicher Metadatenauszeichnung notierter Musik

3.4 Geschichtswissenschaft


1 Eine detaillierte Auflistung von Quellentypen findet sich im Abschnitt 7.3.

2 Zur Indexierung von Musikinstrumenten kann die Hornbostel-Sachs-Klassifikation verwendet werden. Vgl. dazu Abschnitt 4.5.

3 Zu Verfahren, die diese Daten zunächst in eigene Strukturen überführen vgl. Anne Graham, Deborah Pierce, "RISM Data as Metadata for Digital Collections", Paper bei der RISM Conference 2012: Music Documentation in Libraries, Scholarship, and Practice in Mainz, 4. Juni 2012, zugänglich unter http://www.rism.info/de/publikationen/konferenz-2012.html.

4 Zu diesem Thema siehe auch: Eleanor Selfridge-Field (Hg.), Beyond Midi: The Handbook of Musical Codes, Cambridge 1997; Johannes Kepper, Musikedition im Zeichen neuer Medien, Historische Entwicklung und gegenwärtige Perspektiven musikalischer Gesamtausgaben, Norderstedt 2011.

5 Eine ausführliche Dokumentation der Implementierung des FRBR-Modells kann nachgelesen werden bei: Kristina Richts, Die FRBR customization im Datenformat der Music Encoding Initiative (MEI), Masterarbeit, Köln 2013, zugänglich unter http://publiscologne.fh-koeln.de/frontdoor/index/index/docId/144

  • No labels
Page: Humdrum Page: MEI Page: MuseData Page: MusicXML