MeMCA 2010: Medialität und Musik

Bass
Vom 19.-20.2.2010 fand an der Universität Köln eine Konferenz zur Medialität der Musikwahrnehmung und Aisthesis statt. Der Begriff Medialität – man könnte vielleicht auch von Vermitteltheit sprechen – weist dabei auf mehrere Aspekte hin.
Erstens auf den grundsätzlich McLuhan’schen Gedanken, dass ein Medium eine Umgebung darstellt, die spezifische Effekte produziert. Auch bei der Medialität geht es also immer um etwas speziell Vermittelndes. Wenn man das Medium austauscht, bekommt man andere Effekte, andere Environments. Dass es ohne Medium keine Botschaft gibt, ist die zweite, letztlich ebenso deutliche wie triviale Lesart von ›Mediality‹. Medien – technologische Verbreitungsmedien oder symbolische Kommunikationsmedien – sind essentiell für Konzepte wie Information, Bedeutung oder Intention im Zusammenhang der Musikwahrnehmung. Perzeption von Musik in diesem Sinne bedeutet immer schon Medialität – Understanding Media, mit oder ohne iPod (siehe auch Rolf Großmann, „Konstruktiv(istisch)e Gedanken zur ‚Medienmusik‘„.

Es war ausdrücklicher Wunsch der Organisatorin Dr. Jin Hyun Kim und Organisator Prof. Uwe Seifert, transdisziplinäre Ansätze zusammen zu bringen und sich auf diesem Wege Themen wie Musik, Medien, Kognition und Ästhetik zu nähern. Dass sich ein Institut mit deutlichem kognitionswissenschaftlichen Fokus dabei für den Titel der Veranstaltung einen Begriff der Medientheorie ausborgt, beweist, dass hier mit gutem Beispiel voran gegangen wurde. Interdisziplinäre Konferenzen oder Symposien haben in gewisser Weise – auch in Form der modischen Unkonferenzen oder Barcamps – Konjunktur. Das hat nicht nur positive Seiten, wie in der letzten Zeit hier und dort öfter artikuliert wurde, bringt aber grundsätzlich die künstlich getrennt gehaltenen Natur- und Geisteswissenschaften wieder näher zusammen. Auch dafür war die Konferenz ein gutes Beispiel.

In den Beiträgen und Diskussionen der Konferenz schlugen sich die stark unterschiedlichen Medienbegriffe – vom Medium als Apparat oder Gadget bis zur systemtheoretischen Medium/Form Distinktion – deutlich nieder. Man muss diesen Zustand allerdings nicht per se negativ auffassen oder erwarten, dies sei zu irgendeiner Zeit großartig anders gewesen. Welche Strömungen in einer gewissen Zeitperiode entscheidende oder wichtige Rollen gespielt haben, lässt sich meist erst aus einer rückblickenden Beobachterposition erschließen.

Neben rein kognitionswissenschaftlichen Vorträgen, die unter anderem mit einer interessanten Verquickung von „Cat Content“ und Naturwissenschaft dem Tanz als Alleinstellungsmerkmal des Menschen eine Absage erteilten (vgl. auch), kam auch die Frage nach einer zeitgemäßen Betrachtung des Konzepts ›Musikinstrument‹ auf:

Was passiert eigentlich mit der Instrumentenkunde, wenn der Computer als Leitmedium ins Spiel kommt? Die Feststellung, dass Musik immer schon einen starken Technikbezug hatte – Musikinstrumente sind technische Musikmaschinen auf der Höhe der Produktivkraftentwicklung der jeweiligen Gesellschaft (vgl. Michael Harenberg, „Virtuelle Instrumente – Von der Orgel zum Cyber-Instrument„) – führt kaum dazu, dass der Computer als Instrument wahrgenommen wird.
Unterricht am Musikinstrument Computer findet nach wie vor zu einem großen Teil an popmusikalisch ausgerichteten Instituten statt, deren Forschungsperspektive – salopp und aus der Sicht eines Musikwissenschaftlers heraus – auf den Button ausgerichtet ist, der den Beat noch fetter macht. An den Musikfachbereichen der meisten Universitäten und Hochschulen ist der Computer als Instrument und erst recht als Gegenstand musikwissenschaftlicher Forschung im Sinne einer zeitgemäßen Instrumentenkunde nahezu unauffindbar. Dabei sind grundsätzliche Fragen hier noch ungeklärt, was sich bisweilen in ontologischen Implikationen niederschlagen kann. Der momentan beobachtbare Trend zurück zur ›analogen‹ Gegenständlichkeit ist angesichts der nach wie vor undurchsichtigen und wenig anwenderfreundlichen Welt von Hardware Controllern folglich nachvollziehbar, führt aber letztlich ins Leere (selbst eine Tastatur ist gegenständlich!). Die Forderung der Herstellung von Authentizität der Medialität von Software-Klangerzeuger und Hardware-Controller verspricht mehr – ein Aspekt, der bei der Frage der Transmedialität von Musikinstrumenten weiter an Bedeutung gewinnen muss.

Bild: PJH

Arne Bense

Arne Bense

promoviert bei Prof. Dr. Bernd Enders (systematische Musikwissenschaft) an der Universität Osnabrück und ist dort seit kurzer Zeit Mitglied der Forschungsstelle Musik- und Medientechnologie (FMT). Er ist Mitbegründer des Tonstudios und Labels Sample Park, sein Blog heißt www.therestlessmachine.de

More Posts - Website - Twitter