Author Archives: Alice Soiné

Tagung „Akustische Interfaces“

Veranstalter

Juniorprofessuren „Digitale Medien und Computation“ und „Kulturen des Wissens“, Humboldt-Universität zu Berlin, sowie die AGs „Interfaces“, „Auditive Kultur und Sound Studies“ und „Medienwissenschaft und Dis/Ability Studies“ der Gesellschaft für Medienwissenschaft (GfM)

Konzept und Organisation

Christoph Borbach, Konstantin Haensch, Timo Kaerlein, Shintaro Miyazaki, Robert Stock, Sabine Wirth. Link zum “Call for Papers”.

Veranstaltungsort

Medientheater, Georgenstraße 47, 10117 Berlin

Mittwoch, 4. Mai 2022

18:00 Eröffnung, Wolfgang Ernst (Berlin)
18:15 Konzept der Tagung
18:30 Sebastian Schwesinger (Berlin)
Pause
19:20 Lecture Performance Aine E. Nakamura: I am song itself (New York)
20:00 Schluss, Viktoria Tkaczyk (Berlin)

Donnerstag, 5. Mai 2022

10:00-12:00 „Smarte Assistenten: Hören und Verstehen“ mit Benedikt Merkle (Weimar) & Tim Hector (Siegen), Peter Klimczak (Cottbus/Wroclaw) und Jana Künzel (Marburg)
Mittagessen
13:00-14:20 „Medienarchäologie und -geschichte akustischer Interfaces I“ mit Benjamin Lindquist (Princeton) und Christopher Klauke (Berlin)
Kaffeepause
14:40-16:00 „Akustische Interfaces in Musikpraktiken“ mit Alan Fabian (Hildesheim) und Carsten Wernicke (Lüneburg)
16:00-16:40 Axel Volmar (Siegen)

17:00-18:00 Treffen der AG Interfaces

Freitag, 6. Mai 2022

09:30-10:50 „Medienarchäologie und -geschichte akustischer Interfaces II“ mit Rizqi Mufida Prasya (Halle) und Florian Schreiner (Friedrichshafen)
10:50-12:10 „Akustische Einspielungen“ mit Markus Spöhrer (Konstanz) und Lea Luka Sikau (Cambridge)
Mittagsessen
13:10-15:10 „Akustische Interfaces hacken und modifizieren“ mit Margarethe Maierhofer-Lischka (Graz), Daniel Wessolek & Thomas Miebach (Berlin) und Jan Van Treeck (Hamburg)
Kaffeepause
15:30-16:00 Abschlussdiskussion

Abstracts der Beitragenden (nach Zeitplan)

Sebastian Schwesinger (Berlin): Klang/Daten/Sehen. Auditory Displays als Interfaces des Akustischen

Der Begriff des auditory display ist ein etabliertes Konzept und Verfahren für die klangliche Repräsentation von Daten, das innerhalb der medienwissenschaftlich orientierten Sound Studies bereits für eine Wissens- und Mediengeschichte klanglicher Darstellungsweisen jenseits musikalisch-künstlerischer Provenienz fruchtbar gemacht wurde. Der Vortrag möchte diese Ansätze vorstellen und die konzeptuellen Limitationen zu den Ursprüngen der Begriffsbildung und -diskussion innerhalb der International Community for Auditory Display zurückführen. In Auseinandersetzung mit dem Konzept und Beispielen akustischer Interfaces sollen Annäherungsmöglichkeiten und Differenzen ausgelotet werden, die helfen können, einen Zugang zu klanglichen Verarbeitungs- und Darstellungsformen zu finden, der auch nach den Eigenheiten des im weiteren Sinne klanglichen Ausgangsmaterials fragt. Am Beispiel raumakustischer Simulationen und Modellierungen sucht der Vortrag in diesen Materialpraktiken und Arbeitsweisen nach den sonischen Eigenheiten, die Klang-Daten und den Umgang mit ihnen jenseits des bloßen Erklingens als phänomenaler Bestimmung kennzeichnen.

Sebastian Schwesinger ist wissenschaftlicher Mitarbeiter am Lehrstuhl für Kulturtechniken und Wissensgeschichte (Prof. Christian Kassung) am Institut für Kulturgeschichte und -theorie der Humboldt-Universität zu Berlin. Studium der Wirtschaft mit Schwerpunkt International Management und Controlling an der Hochschule für Ökonomie und Management und der Hogeschool Zeeland. Danach, Studium der Kulturwissenschaft, Musikwissenschaft und Philosophie an der Humboldt-Universität zu Berlin. Sein Promotionsprojekt untersucht die Mediengeschichte der virtuellen Akustik. 2015-2018 koordinierte er das Projekt “Auralisierung archäologischer Räume” am Exzellenzcluster Bild Wissen Gestaltung. 2019 war er am MPIWG Gastdoktorand in der Forschungsgruppe “Episteme der modernen Akustik”.


PERFORMANCE, Aine E. Nakamura (New York): I am song itself

I introduce my art form that enables the synthesis of voice and body, with the usage of a near-hung microphone, showing examples of my work, featuring its transborderness. I produce a sonic and visual space through my idiosyncratic performance and a focus on orality. My voice arises from an association with body movement, which supports a storyline about an infant and an old man, recovery, peace, or an unknown story. I move smoothly between improvised vocal sound, non-notated melodies. I create in my dreams or consciousness, movements, spoken words, and multiple stories as I tell with my body. The art acknowledges my transnational complexity which isthe lens of my lived experience, and further allows me to connect with undefined self without settlement.My primary artistic technicality is my voice, which is in line with spirituality. Physicality lets me vision body in a wide space without being confined by one aesthetic,stereotype or norm.My body expects and entrusts that I sing, and I entrust my body that it knows song and listens. By not notating, voice is free from predetermined specificity but creates its own sensitive and sensual nuanced possibilities. In other words, I tell space-and time-transcending stories through my site-and time-specific presence.

Aine E. Nakamura: I am a singer, composer, and performance/performing artist. I recently focus on orality and movements of body, and their relationship, and additionally stories and imagery. My transborder art drawing upon sensibility and spirituality is my way of showing resilience against violence. My artistic quest has meant a search for my own language to embrace and express self, which cannot be told simply through one disciplinary or cultural frame, while moving closer to my woman artist identity with everyday politics, acknowledging transnational complexity and ambiguity. Defying traditional power structures that preclude new ways of feelings, and any assumption by the way I look of a singular story, I nurture my self, my spiritual, artistic and intellectual space, and multiple delicate stories in a new language I investigate. I am free to create and find more. Through my approach toward and embodiment in wider space, time, nature and peace, and questions on hierarchy in music, linguistic and cultural grammar, and the global society, I hope to be a song for inner and beings.


Benedikt Merkle (Weimar) & Tim Hector (Siegen): „Alexa, Stop!“ – Die Beredsamkeit symbolischer Ausdrücke in der Interaktion mit IPAs

Welche Herausforderungen bergen akustische Interfaces für die Medienwissenschaft? Als Phänomenbereich betrachten wir zur Bearbeitung dieser Frage „Voice User Interfaces“ in Smart Speakern. Eine praxeologisch fundierte Medienlinguistik, die sprachliche Interaktion als Bestandteil sozialer Praxis begreift, verfolgt derzeit in diesem Bereich empirische Untersuchungen (vgl. Habscheid et al. 2021). Wir erörtern in unserem Beitrag deren Nutzen für ein breiteres Feld medienwissenschaftlicher Forschung vor dem Hintergrund der Entwicklung des Medienbegriffs.
Dazu unternehmen wir den Versuch, symbolische Ausdrücke wie den Haltebefehl „Alexa, Stop!“ als Kulturtechnik zu beschreiben, die es erlaubt, „mit symbolischen Ausdrücken in ein interaktives Wechselverhältnis eintreten [zu] können“ (Krämer 2000, 46). Wir arbeiten auf Basis eines Datenkorpus, das im Teilprojekt „Un/erbetene Interaktion – ,Intelligente Persönliche Assistenten‘ (IPA)“ des DFG-SFB „Medien der Kooperation“ erstellt wurde. Anhand dessen vollziehen wir empirisch nach, wie auditive Interfaces eine kulturelle Unterscheidung von symbolisch konventionalisierten Ausdrücken und interaktivem zeitlichem Umgang prozessieren.

Tim Hector ist seit 2020 wissenschaftlicher Mitarbeiter und Doktorand am SFB 1187 Medien der Kooperation an der Universität Siegen. In seiner Dissertation im Fach Angewandte Sprachwissenschaft untersucht er mit gesprächslinguistischen Methoden Smart Speaker in der Interaktion. Er studierte Germanistik, Politikwissenschaft und Bildungswissenschaften an der Universität Münster. Außeruniversitär war er von 2013 bis 2018 als Vorsitzender von Wikimedia Deutschland e.V. tätig. Benedikt Merkle ist seit 2022 wissenschaftlicher Mitarbeiter im Forschungsprojekt The New Real: Past, Present and Future of Computation and the Ecologization of Cultural Techniques an der Bauhaus-Universität Weimar. 2021 war er wissenschaftlicher Mitarbeiter und wissenschaftlicher Koordinator am SFB 1187 Medien der Kooperation an der Universität Siegen, wo er seine Dissertation zur Geschichte und Ästhetik der Flash-Animation begann. Er studierte Medienkulturwissenschaften, Philosophie und Kulturwissenschaft in Freiburg i.Br. und Berlin.


Peter Klimczak (Cottbus): Der Maschinensemiotik-Ansatz für ein akustisches Mensch-Maschine-Interface

Trotz teils hervorragender Spracherkennungsleistungen verfügen aktuelle Sprachassistenzsysteme weder über eine geeignete automatische Semantikanalyse noch eine brauchbare Weltwissensrepräsentation. Dementsprechend behilft man sich damit, die Nutzerinnen Signal-oder Befehlswörter zur Steuerung der Maschine lernen zu lassen. Ein solcher, für die Anwenderinnen oft frustrierender, Ansatz wäre jedoch unnötig, wenn man sich eines grundlegenden Unterschieds in der Semiotik von Menschen und Maschinen vergegenwärtigt: Für Maschinen ergibt sich die Bedeutung einer (menschlichen) Äußerung ausschließlich aus ihrem maschinellen Handlungsspielraum. Maschinen müssen daher auch nicht die Bedeutung einzelner Wörter und die sich aus diesen Wortbedeutungen und zusätzlichem impliziten Weltwissen ergebende Satzsemantik verstehen. Es reicht aus, dass man die Maschine im Trial-and-Error-Verfahren die maschinenspezifischen Bedeutungen menschlicher Äußerungen lernen lässt. Dieses Erlernen lässt sich formal auf Grundlage von B. F. Skinners Lerntheorie als das Erlernen von Äußerungs-Bedeutungs-Paaren (Utterance-Meaning-Pairs) modellieren, was am Beispiel der akustischen Steuerung einer kognitiven Heizung (alternativ eines Autoradios) gezeigt werden soll.

Peter Klimczak (Dr. phil. et Dr. rer. nat. habil.) lehrt als Privatdozent Medien-, Kultur- und Technikwissenschaften an der Brandenburgischen Technischen Universität und forscht als Senior Research Fellow der Alexander von Humboldt Foundation an der University of Wroclaw zu digitalen/sozialen Medien, kognitiven Systemen sowie dem Einsatz künstlicher Sprachen in den Medien- und Kulturwissenschaften.


Jana Künzel (Marburg): Wenn Greta flüstert – Audiodeskription als akustisches Interface

Lange war es für blinde und sehbehinderte Menschen undenkbar, ohne die Hilfe eines Anderen, der ihnen das visuelle Geschehen auf der Leinwand erläutert, einen Film anzusehen. Doch durch die geflüsterten Erläuterungen fühlten sich andere Kinogäste oftmals gestört. Dies änderte sich erst in den 1970er Jahren als Gregory Frazier an der San Francisco State University of Creative Arts die Technik der Audiodeskription, die bei den Filmfestspielen in Cannes 1989 erstmals auch in Europa zum Einsatz kam, entwickelte. In meinem Vortrag spreche ich darüber, wie Audiodeskription eigentlich funktioniert und wie sie sich im Laufe der Zeit verändert hat. Zudem beschäftige ich mich aus medienwissenschaftlicher Perspektive mit der Frage, welchen Einfluss Apps wie beispielsweise „Greta“ auf die Veränderung der Audiodeskription haben und inwiefern man diese Apps, die eine Schnittstelle zwischen Menschen mit Sinnesbehinderung und dem Medium Film bilden, als akustische Interfaces bezeichnen kann.  

Jana Künzel hat an der Philipps-Universität Marburg den Bachelor “Medienwissenschaft” studiert und danach den Master in “Medien und kulturelle Praxis” absolviert. Den Master hat sie im November 2021 abgeschlossen und ist derzeit dabei ein Promotionsprojekt zu entwickeln.


Benjamin Lindquist (Princeton): Text-To-Speech: From Assistive Technology to Virtual Voice Assistants

My talk will disentangle the relationship between today’s virtual voice assistants and their forerunners: reading machines for blinded WWII veterans. Scholars have addressed contemporary acoustic interfaces, focusing on how digital voices reflect and construct gendered norms (Woods 2018, Bergen 2016, Phan 2017). But this scholarship implicitly mirrors Silicon Valley’s preferred narrative of technological innovation and disruption. Yet the growth of “machine English” in the middle of the twentieth century was not intended to provide the affluent with talking appliances and “smart” homes. Thus, my talk will ask how and why these information prosthetics moved out of the masculine domain of war and into the world of commerce. And when why did artificial voices become increasingly female? By attending more holistically to the history of synthetic speech—and not just its recent incarnations—I will contribute to an ongoing conversation about the intersections of gender, technology, and the body.

Benjamin Lindquist is a Ph.D. candidate in the history department at Princeton University. Before joining Princeton, Benjamin worked as an artist. He graduated from the School of the Art Institute of Chicago (BFA) and Yale University School of Art (MFA). After earning his MFA, he taught media studies, studio art, and art theory at the University of Regensburg, Butler University, and Purdue University. Benjamin’s art and scholarship have been funded by the Beinecke Rare Book and Manuscript Library, Creative Time, DAAD, The Al Held Foundation, and a Fulbright Fellowship in Zürich, Switzerland. His publications have appeared in Western Historical Quarterly, Winterthur Portfolio, and Material Religion.


Christopher Klauke (Berlin): Appunns Tonometer. Zur Kolonialität eines akustischen Interfaces zur Vermessung von Musik im Phonogramm-Archiv Berlin

Im Phonogramm-Archiv Berlin wurden um 1900 die Musiken der kolonialisierten Welt nicht nur gesammelt und klassifiziert, sondern auch durch ein komplexes Verfahren tonometrisch untersucht, d.h. in Daten aufgelöst. Ein spezieller Apparat zur Bestimmung von Frequenzen–gefertigt vom Instrumentenbauer Georg Appunn –bildete hierbei die zentrale Schnittstelle zwischen dem modifizierten Phonographen des Archivs sowie Wissenschaftssubjekten mit spezifischen „sonic skills“ (Bijsterveld2019). Als akustisches Interface vermittelte der Apparat so auch zwischen den Musiker_innen kolonialisierter Kulturen und westlichen Wissenschaftler_innen, wobei dieses Verhältnis durch Machtasymmetrien gekennzeichnet war, welche nicht zuletzt durch das Interface selbst mit konstituiert wurden. Aus einer kritischen wissens- und medienhistorischen Perspektive rekonstruiert der Vortrag unter Rückgriff auf Archivmaterial die politischen Implikationen der Messpraxis des akustischen Interfaces Appunns Tonometer. Ausgehend von Überlegungen zu einer „Musicology of Interfaces“ (Dolan 2012) wird der Fokus dabei zum einen auf die (auditive) Bedienung und Affordanz des Interfaces gelegt, zum anderen auf die dadurch konstituierte Geste des kulturergreifenden Abhörens.

Christopher Klauke studiert Musikwissenschaft im Master an der Humboldt-Universität zu Berlin mit den Schwerpunkten Transkulturelle Musikwissenschaft/Historische Anthropologie der Musik und Geschichte und Theorie der Populären Musik, im Bachelor studierte er Musikwissenschaft und Kunstgeschichte an der Justus-Liebig-Universität Gießen. Zu seinen Interessen zählen medien- und kulturwissenschaftlich informierte Zugänge zur materiellen Kultur von Musik, epistemologische Dimensionen von Musik und der auf sie bezogenen Wissenschaften sowie die Historizität des Hörens. In seiner Masterarbeit beschäftigte er sich mit der historischen Genese und der Operativität der Wissenstechnikendes Hörens und Messens in der „Forschungsmaschine“ Phonogramm-Archiv Berlin. Derzeit bereitet er sein Dissertationsprojekt vor.


Alan Fabian (Hildesheim), Shake the Sound: Sonic Interaction Design in Music

Seit einiger Zeit entwickle ich am Musikinstitut der Universität Hildesheim im Rahmen verschiedener Forschungsförderungen eine Musikapp (https://www.uni-hildesheim.de/musik/forschung/musikapps-in-der-musikmedienpaedagogik/pages-musikapps/shakesampler/) sowie einen theoretischen Ansatz bezüglich einer niedrigschwelligen Interaktion mit Sound/Musik im Bereich des Sonic Interaction Design (Franinovic 2013, Serafin 2011) und der Community Music. Die App ist ein Interface, das körperliche Situiertheit im Raum unmittelbar an Klang koppelt. In ersten experimentellen Szenarien z.B. in der Schule hat sich gezeigt, dass auch z.B. Inklusionsschüler so Anschluss an Klassenmusizieren mit Musikapps finden können. Bei der App handelt es sich um eine Art Klangkompass. Dadurch ergeben sich vielfältige Sonic-Interaktion-Settings, von klanglicher Orientierungshilfe im Raum bis hin zu komplexen interaktiven Sound- und Musikszenarien. Zentral für den theoretischen Ansatz diesbezüglich ist die Embodied Music Cognition (Leman 2008, 2016) und da insbesondere Theoretisch-Praktisches zum Action-Perception-Model; klangliches und musikalisches Entrainment steht im Fokus.

Alan Fabian ist wissenschaftlicher Mitarbeiter am Institut für Musik und Musikwissenschaft der Stiftung Universität Hildesheim im Bereich Musik und Medien. Lehraufträge an verschiedenen Universitäten und Hochschulen. Fachgebiete: Musik(tabellen)formulare, Musik(klang)verwaltung und Musikverkehr, Musikmedienarchäologie, Computermusik/Elektronische Musik, Musikinformatik, Music Interaction Design. Promotion an der Musikhochschule Köln 2011 mit der Dissertation „Eine Archäologie der Computermusik. Wissen über Musik und zum Computer im angehenden Informationszeitalter“ im Kadmos-Verlag. Freiberuflicher Komponist im Bereich Algorithmische Komposition, Vorstandsmitglied der Initiative Musik und Informatik Köln e.V. (Computing Music). Studium u.a. am Institut für Sonologie in Den Haag, am IRCAM in Paris, im Studio für elektronische Musik der Musikhochschule Köln (Diplom), an der Internationalen Ensemble Modern Akademie Frankfurt a.M.


Carsten Wernicke (Lüneburg): MusickingFaces als Interfaces und Surfaces im Sinne metaphorisch-symbolischer Kopplungen humaner und dinglicher Entitäten digital-materieller Musikpraktiken

Haptisch-digitale Musik-Devices wie Roli Songmaker Kit, Ableton Push 2 oder das Linnstrument können aufgrund der ihnen zugrundeliegenden technologischen Bedingung (Hörl 2011)und ihrem modularen Charakter (Enders 2005: 27) als eine Verkettung, Verschaltung und Verschachtelung unterschiedlicher ineinandergreifender (technosozialer) Interfaces verstanden werden, die zudem im Sinne allgemeiner Interface-Theorien auch durch ein Surface (Hookway 2014: 15) mit Tastaturen, Pads, Potis etc. konstituiert sind. Als MIDI-Controller ist die Grenze ihrer Konnektivität das MIDI-Protokoll und entsprechender Kompatibilitäten zu allen möglich vorstellbaren musikalischer Interfaceverbindungen. Zugleich sind diese Devices und beteiligten Entitäten wie Hardware und Software nicht im klassischen Sinne als Musikinstrumente zu verstehen(Kvifte 2008). Als„MusikmachDinge“ (im Englischen: musickingThings) im Sinne Johannes Ismaiel-Wendts (Ismaiel-Wendt 2016) können sie auch zu Grenzobjekten (Star,2010, 701) musikalischer Praktiken werden: In mitforschender Kollaboration von Studienteilnehmenden wie in musikalischen Praktiken konstituiert erst das Arbeiten mit und an den Devices die Objektgrenzen der Devices mit, was zugleich auf die Beziehung zwischen Device und Musikerin zurückwirkt. Die Strukturlogik der Interfaces als Relationen/Punkte einer Begegnung oder Kopplung zwischen zwei oder mehreren (abgrenzbaren) Entitäten oder Systemen, Existenzbedingungen wie Zustände sowie/oder deren Grenzen zueinander (Halbach 1994: 168; Hookway 2014: 4; Hadler/Haupt 2016; Hadler 2018) wird somit auch zur Strukturlogik der Beziehung zwischen MusikmachDing und Musikerin. Diese Strukturlogiken werden sodann nicht lediglich durch visuelle Signifizierungen analysierbar. Erst auf der akustischen Ebene wird eine Überführung in spezifische Praktiken analytisch erfahrbar, insofern der akustische Interface-Layer die inhärenten informatorischen wie musikkulturellen Prozesse wesentlich appräsentiert. In der Übernahme des MusikmachDinge/musickingThing-Konzepts möchte ich diese Interfacerelationen, bestehend aus Interfaces und Surfaces, als musickingFaces bezeichnen, die zum einen im „musicking“ auch auf ein performatives Grundverständnis musikalischen Handelns (Small 1998) verweisen und andererseits für den Mensch-Computer-Interaktionsaspekt (Hellige 2008) in digital-materiellen Musikpraktiken sensibilisieren.

Carsten Wernicke hat Musikwissenschaft an der Hochschule für Musik für Franz Liszt Weimar studiert. Von 2011 bis 2017 war er dort wissenschaftlicher Mitarbeiter am Gemeinsamen Institut für Musikwissenschaft Weimar-Jena. Von 2017 bis 2021 war er wissenschaftlicher Mitarbeiter im BMBF-geförderten Forschungsprojekt „Musikalische Interface-Designs:Augmentierte Kreativität und Konnektivität“ (Teilprojekt 2) an der Leuphana Universität Lüneburg. Zurzeit beendet er sein Dissertationsprojekt an der Leuphana Unversität.


Axel Volmar (Siegen): Akustische Interfaces als Werkzeuge wissenschaftlicher Erkenntnis in der Geschichte der Naturwissenschaften

Das Sehen gilt in der westlichen Philosophie seit jeher als privilegierter Erkenntnissinn, und auch die modernen Naturwissenschaften stützen sich (ebenso wie auch in ihrem Nachgang die Wissenschaftsgeschichte) mehrheitlich auf visuelle Verfahren zur Produktion und Kommunikation wissenschaftlicher Fakten und Erkenntnisse. Seit der Aufklärung mobilisieren die Natur- und Lebenswissenschaften jedoch immer wieder auch Hörtechniken und akustische Interfaces in Form epistemischer Werkzeuge für die experimentelle Forschungspraxis. Da gerade in den Experimentalwissenschaften Rechtfertigungspraktiken eine zentrale Bedeutung zukommt, bildet die auditive Kultur der Naturwissenschaften einen prädestinierten Einstiegspunkt, um nach dem epistemologischen Status auditiver Wissensproduktion im Allgemeinen sowie nach der Verfasstheit akustischer Interfaces im Besonderen zu fragen. Was unterscheidet akustische Interfaces von akustischen Medien, auditory displays und auditiven Darstellungen, d.h. Formen klanglicher Repräsentation wie etwa Sonifikationsverfahren bereitstellen? Der Vortrag widmet sich diesen Fragen am Beispiel der Historiografie auditiver Wissensproduktion in verschiedenen naturwissenschaftlichen Disziplinen und verfolgt das Ziel, aus dieser Auseinandersetzung dem historischen Material einige Kriterien zu gewinnen, die zur Analyse aktueller akustischer Interfaces wie Sprachassistenten (z.B. Siri, Google Assistant oder Alexa) und akustische Menüführung (z.B. bei Kundendienst-Hotlines) herangezogen werden können.

Axel Volmar ist seit 2016 wissenschaftlicher Mitarbeiter im SFB Medien der Kooperation an der Universität Siegen. Von 2014 bis 2016 war er Mellon Postdoctoral Fellow am Department of Art History and Communication Studies an der McGill University in Montreal. Zuvor war er wissenschaftlicher Mitarbeiter an der Humboldt-Universität zu Berlin (2006–2008) und der Universität Siegen (2008–2014). Er studierte Kulturwissenschaft, Theaterwissenschaft und Kommunikationswissenschaft und promovierte mit einer Arbeit über die Geschichte des Hörens als Erkenntnissinn der exakten Wissenschaften, die 2015 im Campus Verlag erschien. Von 2012 bis 2017 war er Sprecher der AG Auditive Kultur und Sound Studies der Gesellschaft für Medienwissenschaft.


Rizqi Prasya (Halle): Freizeichen: Das Medium vor der Botschaft

Im Jahr 2020 während der globalen COVID-19-Pandemie forderte die indische Regierung die großen Telekommunikationsanbieter auf, das Freizeichen durch das Husten einer Person zu ersetzen, gefolgt von einer öffentlichen Ansage, um die Nutzer des Telefonnetzes an die Gefahr der Pandemie zu erinnern (BBC, 2020, https://www.bbc.com/news/technology-51911071). Auf diese Weise nutzt die Regierung den ansonsten leeren Zwischenraum, der normalerweise für Pieptöne reserviert ist, und verwandelt private Anrufe in ein Medium für öffentliche Bekanntmachungen. Von diesem Ausgangspunkt aus lassen sich die verschiedenen Verwendungsweisen, Aneignungen und Transformationen des Freizeichens sowie die unterschiedlichen Nutzungsvorstellungen historisch nachzeichnen und untersuchen. Vom Medium der Selbstdarstellung bis hin zum Werbemedium ist das Freizeichen ein exemplarischer Fall, der uns dazu anregt, darüber nachzudenken, wie dem Klang, den wir vor jeder Verbindung hören, bestimmte Funktionalitäten zugeschrieben werden und er bestimmten bzw. unterschiedlichen Motivationen dient.

Rizqi Prasya studiert im 4. Semester des Masterstudiengangs Medien- und Kommunikationswissenschaft an der MLU Halle-Wittenberg. Sie hat ihren Bachelor-Abschluss in Kommunikationswissenschaften mit Schwerpunkt Werbung an der Universitas Paramadina in Jakarta erworben. Ihre Forschungsinteressen umfassen Medienindustrien und Mediensysteme, Media Work and Production of Cultures, Game Studies und Platform Studies.


Florian Schreiner (Friedrichshafen): Das Sound Spectrogram – Instrument und Konzept

Die Soundspectrographie ist ein klassisches Laborprodukt, sie entstammt den legendären Bell Telephone Laboratorien, Murray Hill N.J., heißt eigentlich Visible Speech und steht in der Bellschen Tradition des Sprechtrainings für Hörgeschädigte, Stammler, Stotterer, monotony, oratorical ineffectiveness, etc. In den 1920ern beschäftigt sich das hauseigene Acoustic Research Department dann mit elektrischer Sprachanalyse, synthetischem und automatischem Sprechen und während des Krieges mit der elektrischen Sprachnotation unserer nun sichtbar werdenden Patterns of Speech, d.h. einem hörspektral-analytischem Alphabet von lettern, pattern und Phonemen, wobei auch hier lesen lernen sprechen und hören lernen bedeutet. Die Spectrogramme finden als immutable mobiles und dank ihrer variabel einstellbaren Analyse-schärfe vielerorts Verwendung, etwa in Bonn, dabei ist die sonofikante Kehre bereits 1945 in der Konstruktion als „translation of visual symbols“ assoziiert, heißt dort einfach „pattern playback“ mittels photo-elektrischer Rück-/wandlung beliebiger Strukturen und wird dank des Sounddesigners LeCaine 1959 im neugegründeten UTEMS im kanadischen Toronto erstmals auch musikalisch bespielbar.

Florian Schreiner studierte Philosophie und Soziologie in Konstanz, war an der Humboldt Universität zu Berlin DFG-Stipendiat und promovierte am kulturwissenschaftlichen Seminar für Ästhetik unter Friedrich Kittler über Musik und Gewalt im hörphysiologischen und -technischen Sinne des frühen 20. Jahrhunderts. Er hielt Vorträge in Berlin, Potsdam, Lüneburg, Friedrichshafen und Bayreuth und gab zahlreiche Seminare zur Medien- und Technikgeschichte.


Markus Spöhrer (Konstanz): ‘Acoustic Gaming Interfaces’: Ermöglichung und Verhinderung digitaler Spielprozesse in soziotechnischen Spiel-Arrangements mit akustischen Eingabetechnologien und –techniken.

Im Bereich assistiver sowie accessible Gaming-Technologien und –softwares spielt‚ voice-controlled gaming‘ eine tragende Rolle: einerseits in Form von zielgruppenrelevanten Nischenprodukten und andererseits in Form von Soft- und Hardware-Hacks und –Mods, die in entsprechenden Accessibility-/Disability-Foren und –netzwerken vertrieben werden. Der Vortrag beschäftigt sich mit den Praktiken und der Mediation von akustischem Game-Interfacing‘, das sich durch Prozesse zwischen ‚acoustic interfaces‘, Körpertechniken und Spielerinnen ergibt und im Zuge dessen eine ‚Einspielung‘ ermöglicht oder verhindert wird. Anstatt akustische Gaming-Technologien oder Spielerinnen zu essentialisieren, geht der vorliegende Beitrag den durch das digitale (Nicht-)Spielen generierten Relationen, Handlungen und Agencies bzw. der reziproken ‚Ins-Spiel-Setzung‘ akustisch gesteuerter Spielprozesse nach und exemplifiziert diese an sowohl historischen als auch rezenten Beispielen. Hierbei werden sowohl Mainstream-Technologien als auch DIY-Praktiken, Workarounds und Hacks berücksichtigt.

Markus Spöhrer ist Postdoktorand im Teilprojekt 2 „Technosensorische Teilhabeprozesse. App-Praktiken und Dis/Ability“ der DFG-Forschungsgruppe “Mediale Teilhabe. Zwischen Partizipation und Inanspruchnahme” an der Universität Konstanz. Forschungsschwerpunkte sind Theorien und Methoden digitalen Spieles, Akteur-Netzwerk-Theorie, Medientheorie, Technosensorien auditiver Spiele und stereoskopische Medien. Er ist Mitherausgeber von Einspielungen. Prozesse und Situationen digitalen Spielens (Springer 2020).


Lea Luka Sikau (Cambridge): Silencing Interfaces: Acoustic Screen Affordances in the Posthuman Opera Upload (2021)

Furthering the burgeoning discourse on posthumanism, composer and director Michel van der Aa produces Upload (2021). This opera deals with uploading your mind to a server, turning into an avatar, and losing your physical body in the process. A father turns into an avatar, while his daughter remains in the world we know. In this presentation, I examine Upload by shifting the focus from score and operatic performance to the rehearsal space. Drawing on two months of ethnographic fieldwork at the opera house, this presentation detangles operatic rehearsal practices by specifically focusing on one nonhuman materiality in the studio: screens. How do the properties of screens contribute to mediating the space?
While the ‘screenification’ of operatic voices is a widely discussed topic, there are so far no accounts of how actual screens in the rehearsal studio affect opera’s process. This paper makes an exploratory case for analysing the modification of sound spatialities by screens.

Artist-Researcher Lea Luka Sikau forscht an der Schnittstelle von Posthumanismus, Musiktheater und Probenprozessen. Sie arbeitete bereits mit Marina Abramovic, Rimini Protokoll, Jörg Widmann, Sir Peter Jonas und Julius von Bismarck zusammen. Derzeit promoviert sie an der Universität Cambridge. Im Jahr 2020 wurde sie für ihre Projekte an der Schnittstelle von Musik und Technologie am MIT und an der Harvard Universität mit dem Bayerischen Kulturpreis ausgezeichnet. “Lea Luka Sikau is an outstanding musical innovator who investigates, challenges and extends the existing norms of music-based projects.“ (Marina Abramovic)


Margarethe Maierhofer-Lischka (Graz): Oto-morphes Publizieren – kreativ-kritische Designstudien und Überlegungen zum Buch als akustischem Interface

Nicht nur die Musikwissenschaften, sondern auch andere Disziplinen, die sich mit Klang als Forschungsgegenstand auseinandersetzen, stehen vor der Frage: wie lassen sich Klänge, Klangerfahrungen und akustisches Wissen am Besten vermitteln? Was an Information und sinnlicher Qualität geht verloren oder tritt hinzu, wenn das Hörbare in andere Medien umgewandelt wird? Trotz der Omnipräsenz multimedialer Technologien in unserer heutigen Gesellschaft ist im Bereich der Wissenschaft, vor Allem des Geisteswissenschaften, immer noch der Text bzw. das Buch das wichtigste, paradigmatische Interface für den Austausch und die Verbreitung von Wissen. Als Klangkünstlerin und Forscherin experimentiere ich seit Längerem mit alternativen Formen “oto-morphen” Schreibens und Publizierens (von griech. “otos”, Ohr, mein eigener Begriff), die Sound bzw. Hören und Hörbares auf verschiedene Weisen einbeziehen. Dabei erkunde ich Möglichkeiten, das Buch als akustisches Interface neu zu definieren: als Generator für Klang, als Repräsentationsraum, als papiernen Lautsprecher oder physischen Audio-Schaltkreis, aber auch als haptisches Interface für Sound und Reflexionsraum für Klangqualitäten. Mithilfe der Methodik des “Design Thinking” habe ich verschiedene Prototypen für oto-morphe Publikationen aus analogen Materialien und Elektronik, aus Hardware und Software erarbeitet.
Mein Vortrag ist ein Hybrid aus kreativem und wissenschaftlichem Beitrag. Ich teile die praktischen Ergebnisse meiner Designstudien und möchte im Austausch mit den Tagungsteilnehmerinnen den dahinterliegenden theoretischen Überlegungen nachgehen: wie lassen sich neue akustische Interfaces zur Wissens- und Wissenschaftsvermittlung für die auditive Medienforschung gestalten? Welche Funktionen und Möglichkeiten sollen und können diese erfüllen? Und wie können Forscherinnen selbst neue, bedarfsgerechte Interfaces entwickeln, um ihre Gedanken und Arbeiten zu teilen?

Margarethe Maierhofer-Lischka studierte Orchestermusik, Musikwissenschaft und zeitgenössische Musik in Dresden, Rostock und Graz, sowie interdisziplinäre Klangkunst an der ZHdK Zürich. 2020 Promotion an der KUG Graz zu Klanginszenierungen im zeitgenössischen Musiktheater. Sie ist als freischaffende Künstlerin, Musikerin, Wissenschaftlerin und Dramaturgin tätig und arbeitet dabei für Film, Radio, auf der Bühne sowie mit Interventionen im öffentlichen Raum. Derzeit ist sie Lehrbeauftragte für Musik & Medien am Institut für Musik- und Tanzwissenschaft an der Uni Salzburg. https://suonoreale.mur.at


Daniel Wessolek und Thomas Miebach (Berlin): Den Turn zum Auditiven weiterdrehen: Akustische Interfaces für taube Menschen

Ausgehend von einem Turn zu Auditiven Benutzerschnittstellen beschreiben wir in unserem Beitrag kollaborative Bemühungen, den in Kinderzimmern verbreiteten Hörstift TipToi über Methoden des Hackings und eigenentwickelter Zusatzkomponenten Tauben Menschen zugänglich zu machen. Das digitale Lernspielzeug will über visuelle Elemente, wie Geschichten in Gebärdensprache, die Buchbildebene erweitern und dazu anregen eigene Spiele und Medien zu gestaltet.
Seit 2015 gibt es ein Software Projekt, das tttool, das sich als Schweizer Messer für den Tiptoi-Bastler versteht und das proprietäre Dateiformat des Tiptoi entschlüsselt. Hier werden auch Werkzeuge zur Modifikation bestehender Inhalte und zum Erstellen eigener Medien angeboten. Über diesen Weg wird es möglich, die Kommunikation des Hörstifts mit einem weiteren Mikrocontroller umzusetzen, mit einem OLED Bildschirm. In unserem Vortrag wollen wir verschiedene Ansätze und Möglichkeiten vorstellen den Tiptoi auch für Taube Kinder attraktiv zu machen. Durch unseren kritischen Hacking-Ansatz wird der Ausschluss Tauber Menschen aus dem letzten Medienturn vom Visuellen zum Auditiven thematisiert.

Daniel Wessolek arbeitet auf dem Gebiet der Personal Fabrication und des Co-Designs. Zuvor forschte er als Postdoc an der Singapore University for Technology and Design (SUTD) zu Assistiven Technologien. Im Jahr 2016 verteidigte er seinen Dissertation in Kunst und Design zum Thema “Simple Displays” an der Bauhaus-Universität Weimar, wo er auch als wissenschaftlicher Mitarbeiter im Bereich Interaction Design tätig war. Er hat außerdem einen MFA in Medienkunst und -design von der Bauhaus-Universität Weimar, einen MA in Kunsttheorie von der Tongji-Universität Shanghai und einen BA in Digitale Medien der Hochschule für Künste Bremen. Thomas Miebach ist von Geburt an ein Gebärdensprachler und in der Tauben Gemeinde aufgewachsen. Er studierte Interfacedesign an der Fachhochschule Potsdam und war Vorstandsmitglied des Berliner Vereins der gehörlosen Jugend “jubel3”. Er ist seit vielen Jahren freiberuflich als Digital Media Designer für diverse Gehörlosenorganisationen und Gehörlosenverbände tätig.


Jan Claas van Treeck (Hamburg): Haptischer Sound – Sonifizierung als epistemische Resource?

Innerhalb der Medientheorien gibt es sowohl aus der kanadischen Schule als auch der postkittlerianischen Medienarchäologie immer wieder Bezüge auf Soundphänomene als Grundlagen von digitalen Medien. Wolfgang Ernsts „Sonisches“ – referierend auf McLuhans „Acoustic Space“ – oder Shintaro Miyazakis Idee der „Algorhythmik“, aber auch Untersuchungen praktisch genutzter Phänomene oder künstlerische Strategien bieten ein breites, aber auch disparates Feld einer Betrachtung von Soundphänomen. Sonifizierung als Hören auf die Medien „selbst“ wird immer wieder ins Spiel gebracht. Damit situiert sich das medienarchäologische Ohr als non-diskursive Praxis oder eventuell als Versuch einer anderen Praxis der Betrachtung medialer Phänomene, ganz in der kittlerschen Tradition der „Austreibung des Geistes aus den Geisteswissenschaften“. Der projektierte Vorschlag nutzt einen selbst entwickelten und während eines Forschungsaufenthalts am IXDM/Critical Media Lab gebauten Sonifizierungshandschuh als praktisches/theoretisches Objekt der kritischen Befragung des epistemischen Potenzial der Idee des „Hörens mit medienarchäologischen Ohren“.

Dr. Jan Claas van Treeck ist Hochschuldozent an der HS Fresenius Hamburg. Studium an der Ruhr-Universität Bochum und der Yale University, dort auch Promotion zum PhD, dazwischen und nebenher langjährige Tätigkeit als Consultant und Strategieberater für ›Fortune 500-Firmen‹ und das ›CANSOFCOM‹ der Canadian Army. Er forscht zu Kybernetik, Digitalökonomie, Mensch-Maschine-Interaktionen, Cyborgs, Sonizität, Biohacking, Technosensing und Posthumanismus. Letzte Veröffentlichung: »Enden des Internets. Piazza Virtuale revisited. Gespräch mit Benjamin Heidersberger«, in: Jens Schröter, Tilman Baumgärtel, et. al. (Hrsg.), Bettina (Hrsg.): Navigationen. Zeitschrift für Medien und Kulturwissenschaften, JG 21 H2, Siegen 2021, S. 51-66.