Workshop, 12.–13. Mai 2023, Bauhaus-Universität Weimar Veranstaltungsort: Lounge der Universitätsbibliothek, Steubenstraße 6/8, 99423 Weimar
In diesem Jahr tagt die AG Interfaces an der Bauhaus-Universität Weimar. Am 12./13. Mai 2023 treffen sich Wissenschaftler*innen und fokussieren in einem Workshop die zunehmende Veralltäglichung von KI-Technologien und ihre Verschränkungen mit gegenwärtigen Interface-Kulturen. Das Programm als PDF // Veranstaltungslink der Bauhaus-Universität Weimar // Link zum CfP
Methoden des sogenannten maschinellen Lernens und KI-Systeme sind nicht nur populärer Gegenstand von Science-Fiction-Narrativen, Teil von Experimentalanordnungen in Media Labs oder anzutreffen in hoch professionalisierten Anwendungsbereichen, sondern bereits in zahlreiche kommerzielle Anwendungen implementiert und gehören damit integral zum Alltag gegenwärtiger digitaler Medienkultur.
Ob »smarte« Assistenten wie Google Assistant, Siri oder Alexa, automatisierte Gesichtserkennung im öffentlichen Raum, biometrische Identifizierungstechnologien via Smartphone wie etwa FaceID oder TouchID, Chatbots und textproduzierende KI, KI-basierte Text-zu-Bild-Generatoren wie DALL-E oder Midjourney, KI-basierte Foto- und Videobearbeitungs-Apps oder KI-gestützte Content-Moderation, Ranking- und Selektionsmechanismen auf Social Media-Plattformen – Prozesse des Machine Learning arbeiten mit an der Erstellung, Modifikation, Klassifizierung, Identifizierung, Sortierung, Verteilung oder Sichtbarmachung von Inhalten in kommerziellen Medienumgebungen. Mit dem gegenwärtigen »AI-as-a-Service«-Trend, den große Technologiekonzerne propagieren (u.a. Amazon Web Services, Microsoft Azure, Google Cloud, IBM Cloud, Oracle oder SalesForce), wird es zudem immer einfacher, komplexe KI-Anwendungen wie ANNs (Artificial Neural Networks) in Alltagsanwendungen zu implementieren, ohne diese Tools selbst entwickeln zu müssen.
Interfaces übernehmen in diesem Trend zur »Everyday AI« eine zentrale Vermittlungsleistung, die KI-Technologien in alltäglichen media environments verfügbar und auf spezifische Weise nutzbar und wirksam macht. Ob als User Interface oder als Application Programming Interface (API) – auf allen Ebenen des Stacks sind es Interfaces, die KI für Laienanwender*innen überhaupt erst medienästhetisch erschließen. Diese besondere Rolle von Interfaces und das neue Agens, welches durch KI-Technologien in generative sowie analytische Prozesse der populären Medienkultur eingebracht wird, wird im Rahmen des Workshops aus unterschiedlichen Fachperspektiven diskutiert.
Die Beiträge widmen sich dem Trend zur »Everyday AI«, der Konvergenz zwischen Hochtechnologie und Alltagskultur, indem sie unterschiedliche Anwendungsbereiche in den Fokus rücken, an denen die komplexen Gefüge von menschlichen Praktiken und algorithmischen Prozessen kritisch diskutiert werden. Zudem bietet der Workshop ein Forum, um (medien-)theoretische Konzepte und Begriffe wie Agency, Adaptivität, Affordanzen oder Operativität angesichts aktueller Entwicklungen neu zu befragen.
Konzeption & Organisation: Sabine Wirth (Weimar), Timo Kaerlein (Bochum), Daniel Stoecker (Potsdam), Nicole Schimkus (Potsdam)
Programm
Freitag, 12. Mai 2023
13:00 – 13:15 Willkommensgruß & Einführung
13:15 – 14:35 | Panel 1 | Everyday AI, Corporate Extractivism & Platformization Moderation: Sabine Wirth Andreas Beinsteiner (Universität Innsbruck): Extraktionsinstanzen impliziten Wissens? Über a-priori- und a-posteriori-Grammatisierung in KI-as-a-Service-Interfaces Inga Luchs (University of Groningen): Vertex AI – The Platformization of Artificial Intelligence
Kaffeepause
14:50 – 16:10 | Panel 2 | Everyday AI Interactions & the Uncomputable Moderation: Timo Kaerlein Robert Rapoport & Vera Tollmann (Leuphana Universität Lüneburg): The Becalmed Interface: Hidden AR in Videoconferencing Benedikt Merkle (Bauhaus-Universität Weimar): Love Probably. GPT-3 und das Spiel mit den Un/Wahrscheinlichkeiten des Symbolischen
Kaffeepause
16:25 – 17:45 | Panel 3 | Everyday AI in Work & Care Environments Moderation: Nicole Schimkus Felix Diefenhardt (Vienna University of Economics and Business): Hiring and Firing in an Age of Smart Machines: HR Dashboards as Interfaces and Managerial Technologies Mathias Denecke (Ruhr-Universität Bochum): Datenarbeit im umgebungstechnisch betreuten Wohnen
Kaffeepause
18:00 – 19:30 | Impulses & Discussion | Interface Keywords Revisited Moderation: Daniel Stoecker Jan Distelmeyer (Fachhochschule Potsdam/Universität Potsdam): Operativität Timo Kaerlein (Ruhr-Universität Bochum): Affordanzen Sabine Wirth (Bauhaus-Universität Weimar): Adaptivität
Ab 19:30 | Gemeinsames Abendessen (Selbstzahlerbasis)
Samstag, 13. Mai 2023
09:30 – 10:50 | Panel 4 | Everyday AI & Popular Screen Cultures Moderation: Jan Distelmeyer Kathrin Fahlenbrach (Universität Hamburg): Automatisiertes World-Feeling. Zur programmierten Poetik immersiver Interface-Umgebungen von Netflix Olga Moskatova (Friedrich-Alexander-Universität Erlangen-Nürnberg): Reface the Star: Ästhetik der Personalisierung
Kaffeepause
11:10 – 12:30 | Panel 5 | Everyday AI & Design Moderation: Nicole Schimkus Pablo Abend, Tristan Schulze & Amelie Goldfuß (Burg Giebichenstein Kunsthochschule Halle): Wie gestalten mit KI? Die Frage nach dem Interface als Herausforderung für den Einsatz von KI im Designprozess Florian A. Schmidt & Sebastian Schmieg (HTW Dresden): Prompt, click, and hope for the best. Über Wert und Halbwertszeit von Sprache als Interface für Gestaltungswerkzeuge
Ab 12:30 | Gemeinsames Mittagessen (Selbstzahlerbasis) oder Wochenende
Everyday AI: Künstliche Intelligenz in gegenwärtigen Interface-Kulturen
12.–13. Mai 2023, Bauhaus-Universität Weimar (Einreichungsfrist: 01.03.2023) Veranstaltungsort: Lounge der Universitätsbibliothek, Steubenstraße 6/8, 99423 Weimar
Der jährlich stattfindende Workshop der AG Interfaces – einer Arbeitsgruppe innerhalb der Gesellschaft für Medienwissenschaft (GfM) – fokussiert 2023 die zunehmende Veralltäglichung von KI-Technologien und ihre Verschränkungen mit Interface-Kulturen. Methoden des sog. maschinellen Lernens, welche oft mit dem weiter gefassten und nicht unumstrittenen Begriff der ‚Künstlichen Intelligenz‘ (KI) umschrieben werden, sind nicht nur populärer Gegenstand von Science-Fiction-Narrativen, Teil von Experimentalanordnungen in Media-Labs oder anzutreffen in hoch professionalisierten Anwendungsbereichen, sondern bereits in zahlreiche kommerzielle Anwendungen implementiert und gehören damit integral zum Alltag gegenwärtiger digitaler Medienkultur.
Ob ‚smarte‘ Personal Assistants wie Google Assistant, Siri oder Alexa, automatisierte Gesichtserkennung im öffentlichen Raum, biometrische Identifizierungstechnologien via Smartphone wie etwa FaceID oder TouchID, Chatbots und textproduzierende KI, KI-basierte Text-zu-Bild-Generatoren wie DALL-E oder Midjourney, KI-basierte Foto- und Videobearbeitungs-Apps oder KI-gestützte Content-Moderation, Ranking- und Selektionsmechanismen auf Social Media-Plattformen – Prozesse des Machine Learning arbeiten mit an der Erstellung, Modifikation, Klassifizierung, Identifizierung, Sortierung, Verteilung oder Sichtbarmachung von Inhalten in kommerziellen Medienumgebungen. Mit dem gegenwärtigen „AI-as-a-Service“-Trend, den große Technologiekonzerne propagieren (u.a. Amazon Web Services, Microsoft Azure, Google Cloud, IBM Cloud, Oracle oder SalesForce), wird es zudem immer einfacher, komplexe KI-Anwendungen wie ANNs (Artificial Neural Networks) in Alltagsanwendungen zu implementieren, ohne selbst die Entwicklung dieser Tools zu übernehmen.
Interfaces übernehmen in diesem Trend zur ‚Everyday AI‘ eine zentrale Vermittlungsleistung, die KI-Technologien in alltäglichen media environments verfügbar und auf spezifische Weise nutzbar und wirksam macht. Ob als User Interface oder als Application Programming Interface (API) – auf allen Ebenen des Stacks sind es Interfaces, die KI für Laienanwender*innen überhaupt erst medienästhetisch erschließen. Diese besondere Rolle von Interfaces und das neue Agens, welches durch KI-Technologien in generative sowie analytische Verfahren der populären Medienkultur eingebracht wird, soll im Rahmen des Workshops aus unterschiedlichen Perspektiven diskutiert werden. Dabei können die Gegenstandsbereiche, in denen sich eine Veralltäglichung von KI-Technologien vollzieht und in denen die Frage nach Interfaces verhandelt wird, breit gefächert sein:
Autonome Fahrzeuge und Navigationspraktiken
Smart Cities, Smart Homes und andere ‘intelligente’ Umgebungen
Videoüberwachung und automatisierte (Gesichts-)Erkennung im öffentlichen Raum
Emotion Tracking / Affective Computing
Robotik im Gesundheitswesen und in der Pflege
KI in der medizinischen Diagnostik
Intelligent/Virtual Assistants
Synthetic Media (beispielsweise KI-basierte Bildgenerierung und -bearbeitung in Bereichen wie Kunst, Animation & Film, Grafikdesign, Stock-Photography oder Foto-Journalismus)
Sprach- und Schrifterkennung in kommerziellen Softwareprodukten
Digitale Sprach- oder Klangsynthese
Language Models und Natural Language Processing (z.B. Chatbots)
KI-basierte Mustererkennung in Big-Data-Analysen (z.B. im Rahmen von Social Media-Plattformen)
KI-basierte Prognosen und ihre Interfaces (z.B. Verhalten verdächtiger Personen, Wettervorhersage, Aktienkursverläufe, …)
In ‚Everyday AI‘ konvergieren Hochtechnologie und Alltagskultur. Der diesjährige Workshop der AG Interfaces lädt Beiträge ein, die den komplexen Gefügen von Interface-Kulturen und KI-Anwendungen, von menschlichen Praktiken und automatisierten Prozessen nachspüren. Mögliche Fragestellungen können dabei sein: Wie lässt sich die Veralltäglichung von KI-Technologien als Diffusionsprozess oder als widerständige Aneignungsdynamik beschreiben? Welche Fragen nach der Verortung kreativer und kuratorischer Agency werfen populäre KI-gestützte Medienkulturen auf? Welche Ästhetiken und (Im-)Materialitäten gehen mit der Veralltäglichung von KI-Technologien einher und wie wirkt sie sich auf kulturelle und soziale Dynamiken aus? Welche Narrative und Imaginationen drücken sich in den Diskursen rund um Anwendungen von künstlicher Intelligenz aus? Welche Intransparenzen resultieren aus der Verschränkung von Überwachungstechnologien und kommerziellen Software-Produkten? Welche kritischen Reflexionen machen die verschiedenen Ebenen der Einschreibung möglicher Bias beispielsweise in Bezug auf die Reproduktion von Diskriminierung erforderlich? Und auch für die Frage, wie die Zusammenschau dieser beispielhaft aufgezählten, verschiedenen Anwendungsbereiche von ‚Everyday AI‘ ein spezifisches Verständnis ‚intelligenter Umgebungen‘ hervorbringt und damit etablierte medientheoretische Begriffe wie ‚Umwelt‘ oder ‚Milieu‘ neu akzentuiert, soll der Workshop ein Diskussionsforum bieten.
Einreichungen von Nachwuchswissenschaftler*innen und etablierten Forscher*innen sind gleichermaßen willkommen. Reise- und Übernachtungskosten können im Einzelfall übernommen bzw. bezuschusst werden. Vorschläge für wissenschaftliche Kurzvorträge und Präsentationen von künstlerischen oder gestalterischen Projekten sind bis zum 01.03.2023 möglich. Wir bitten um ein kurzes Abstract (ca. 300 Wörter) und eine knappe biographische Information (ca. 100 Wörter) an folgende Emailadresse: sabine.wirth@uni-weimar.de. Sowohl deutsch- als auch englischsprachige Beiträge sind willkommen.
Organisation: Sabine Wirth (Weimar), Timo Kaerlein (Bochum), Daniel Stoecker (Potsdam), Nicole Schimkus (Potsdam)
Juniorprofessuren „Digitale Medien und Computation“ und „Kulturen des Wissens“, Humboldt-Universität zu Berlin, sowie die AGs „Interfaces“, „Auditive Kultur und Sound Studies“ und „Medienwissenschaft und Dis/Ability Studies“ der Gesellschaft für Medienwissenschaft (GfM)
Konzept und Organisation
Christoph Borbach, Konstantin Haensch, Timo Kaerlein, Shintaro Miyazaki, Robert Stock, Sabine Wirth. Link zum “Call for Papers”.
Veranstaltungsort
Medientheater, Georgenstraße 47, 10117 Berlin
Mittwoch, 4. Mai 2022
18:00 Eröffnung, Wolfgang Ernst (Berlin) 18:15 Konzept der Tagung 18:30 Sebastian Schwesinger (Berlin) Pause 19:20 Lecture Performance Aine E. Nakamura: I am song itself (New York) 20:00 Schluss, Viktoria Tkaczyk (Berlin)
Donnerstag, 5. Mai 2022
10:00-12:00 „Smarte Assistenten: Hören und Verstehen“ mit Benedikt Merkle (Weimar) & Tim Hector (Siegen), Peter Klimczak (Cottbus/Wroclaw) und Jana Künzel (Marburg) Mittagessen 13:00-14:20 „Medienarchäologie und -geschichte akustischer Interfaces I“ mit Benjamin Lindquist (Princeton) und Christopher Klauke (Berlin) Kaffeepause 14:40-16:00 „Akustische Interfaces in Musikpraktiken“ mit Alan Fabian (Hildesheim) und Carsten Wernicke (Lüneburg) 16:00-16:40 Axel Volmar (Siegen)
17:00-18:00 Treffen der AG Interfaces
Freitag, 6. Mai 2022
09:30-10:50 „Medienarchäologie und -geschichte akustischer Interfaces II“ mit Rizqi Mufida Prasya (Halle) und Florian Schreiner (Friedrichshafen) 10:50-12:10 „Akustische Einspielungen“ mit Markus Spöhrer (Konstanz) und Lea Luka Sikau (Cambridge) Mittagsessen 13:10-15:10 „Akustische Interfaces hacken und modifizieren“ mit Margarethe Maierhofer-Lischka (Graz), Daniel Wessolek & Thomas Miebach (Berlin) und Jan Van Treeck (Hamburg) Kaffeepause 15:30-16:00 Abschlussdiskussion
Abstracts der Beitragenden (nach Zeitplan)
Sebastian Schwesinger (Berlin): Klang/Daten/Sehen. Auditory Displays als Interfaces des Akustischen
Der Begriff des auditory display ist ein etabliertes Konzept und Verfahren für die klangliche Repräsentation von Daten, das innerhalb der medienwissenschaftlich orientierten Sound Studies bereits für eine Wissens- und Mediengeschichte klanglicher Darstellungsweisen jenseits musikalisch-künstlerischer Provenienz fruchtbar gemacht wurde. Der Vortrag möchte diese Ansätze vorstellen und die konzeptuellen Limitationen zu den Ursprüngen der Begriffsbildung und -diskussion innerhalb der International Community for Auditory Display zurückführen. In Auseinandersetzung mit dem Konzept und Beispielen akustischer Interfaces sollen Annäherungsmöglichkeiten und Differenzen ausgelotet werden, die helfen können, einen Zugang zu klanglichen Verarbeitungs- und Darstellungsformen zu finden, der auch nach den Eigenheiten des im weiteren Sinne klanglichen Ausgangsmaterials fragt. Am Beispiel raumakustischer Simulationen und Modellierungen sucht der Vortrag in diesen Materialpraktiken und Arbeitsweisen nach den sonischen Eigenheiten, die Klang-Daten und den Umgang mit ihnen jenseits des bloßen Erklingens als phänomenaler Bestimmung kennzeichnen.
Sebastian Schwesinger ist wissenschaftlicher Mitarbeiter am Lehrstuhl für Kulturtechniken und Wissensgeschichte (Prof. Christian Kassung) am Institut für Kulturgeschichte und -theorie der Humboldt-Universität zu Berlin. Studium der Wirtschaft mit Schwerpunkt International Management und Controlling an der Hochschule für Ökonomie und Management und der Hogeschool Zeeland. Danach, Studium der Kulturwissenschaft, Musikwissenschaft und Philosophie an der Humboldt-Universität zu Berlin. Sein Promotionsprojekt untersucht die Mediengeschichte der virtuellen Akustik. 2015-2018 koordinierte er das Projekt “Auralisierung archäologischer Räume” am Exzellenzcluster Bild Wissen Gestaltung. 2019 war er am MPIWG Gastdoktorand in der Forschungsgruppe “Episteme der modernen Akustik”.
PERFORMANCE, Aine E. Nakamura (New York): I am song itself
I introduce my art form that enables the synthesis of voice and body, with the usage of a near-hung microphone, showing examples of my work, featuring its transborderness. I produce a sonic and visual space through my idiosyncratic performance and a focus on orality. My voice arises from an association with body movement, which supports a storyline about an infant and an old man, recovery, peace, or an unknown story. I move smoothly between improvised vocal sound, non-notated melodies. I create in my dreams or consciousness, movements, spoken words, and multiple stories as I tell with my body. The art acknowledges my transnational complexity which isthe lens of my lived experience, and further allows me to connect with undefined self without settlement.My primary artistic technicality is my voice, which is in line with spirituality. Physicality lets me vision body in a wide space without being confined by one aesthetic,stereotype or norm.My body expects and entrusts that I sing, and I entrust my body that it knows song and listens. By not notating, voice is free from predetermined specificity but creates its own sensitive and sensual nuanced possibilities. In other words, I tell space-and time-transcending stories through my site-and time-specific presence.
Aine E. Nakamura: I am a singer, composer, and performance/performing artist. I recently focus on orality and movements of body, and their relationship, and additionally stories and imagery. My transborder art drawing upon sensibility and spirituality is my way of showing resilience against violence. My artistic quest has meant a search for my own language to embrace and express self, which cannot be told simply through one disciplinary or cultural frame, while moving closer to my woman artist identity with everyday politics, acknowledging transnational complexity and ambiguity. Defying traditional power structures that preclude new ways of feelings, and any assumption by the way I look of a singular story, I nurture my self, my spiritual, artistic and intellectual space, and multiple delicate stories in a new language I investigate. I am free to create and find more. Through my approach toward and embodiment in wider space, time, nature and peace, and questions on hierarchy in music, linguistic and cultural grammar, and the global society, I hope to be a song for inner and beings.
Benedikt Merkle (Weimar) & Tim Hector (Siegen): „Alexa, Stop!“ – Die Beredsamkeit symbolischer Ausdrücke in der Interaktion mit IPAs
Welche Herausforderungen bergen akustische Interfaces für die Medienwissenschaft? Als Phänomenbereich betrachten wir zur Bearbeitung dieser Frage „Voice User Interfaces“ in Smart Speakern. Eine praxeologisch fundierte Medienlinguistik, die sprachliche Interaktion als Bestandteil sozialer Praxis begreift, verfolgt derzeit in diesem Bereich empirische Untersuchungen (vgl. Habscheid et al. 2021). Wir erörtern in unserem Beitrag deren Nutzen für ein breiteres Feld medienwissenschaftlicher Forschung vor dem Hintergrund der Entwicklung des Medienbegriffs. Dazu unternehmen wir den Versuch, symbolische Ausdrücke wie den Haltebefehl „Alexa, Stop!“ als Kulturtechnik zu beschreiben, die es erlaubt, „mit symbolischen Ausdrücken in ein interaktives Wechselverhältnis eintreten [zu] können“ (Krämer 2000, 46). Wir arbeiten auf Basis eines Datenkorpus, das im Teilprojekt „Un/erbetene Interaktion – ,Intelligente Persönliche Assistenten‘ (IPA)“ des DFG-SFB „Medien der Kooperation“ erstellt wurde. Anhand dessen vollziehen wir empirisch nach, wie auditive Interfaces eine kulturelle Unterscheidung von symbolisch konventionalisierten Ausdrücken und interaktivem zeitlichem Umgang prozessieren.
Tim Hector ist seit 2020 wissenschaftlicher Mitarbeiter und Doktorand am SFB 1187 Medien der Kooperation an der Universität Siegen. In seiner Dissertation im Fach Angewandte Sprachwissenschaft untersucht er mit gesprächslinguistischen Methoden Smart Speaker in der Interaktion. Er studierte Germanistik, Politikwissenschaft und Bildungswissenschaften an der Universität Münster. Außeruniversitär war er von 2013 bis 2018 als Vorsitzender von Wikimedia Deutschland e.V. tätig. Benedikt Merkle ist seit 2022 wissenschaftlicher Mitarbeiter im Forschungsprojekt The New Real: Past, Present and Future of Computation and the Ecologization of Cultural Techniques an der Bauhaus-Universität Weimar. 2021 war er wissenschaftlicher Mitarbeiter und wissenschaftlicher Koordinator am SFB 1187 Medien der Kooperation an der Universität Siegen, wo er seine Dissertation zur Geschichte und Ästhetik der Flash-Animation begann. Er studierte Medienkulturwissenschaften, Philosophie und Kulturwissenschaft in Freiburg i.Br. und Berlin.
Peter Klimczak (Cottbus): Der Maschinensemiotik-Ansatz für ein akustisches Mensch-Maschine-Interface
Trotz teils hervorragender Spracherkennungsleistungen verfügen aktuelle Sprachassistenzsysteme weder über eine geeignete automatische Semantikanalyse noch eine brauchbare Weltwissensrepräsentation. Dementsprechend behilft man sich damit, die Nutzerinnen Signal-oder Befehlswörter zur Steuerung der Maschine lernen zu lassen. Ein solcher, für die Anwenderinnen oft frustrierender, Ansatz wäre jedoch unnötig, wenn man sich eines grundlegenden Unterschieds in der Semiotik von Menschen und Maschinen vergegenwärtigt: Für Maschinen ergibt sich die Bedeutung einer (menschlichen) Äußerung ausschließlich aus ihrem maschinellen Handlungsspielraum. Maschinen müssen daher auch nicht die Bedeutung einzelner Wörter und die sich aus diesen Wortbedeutungen und zusätzlichem impliziten Weltwissen ergebende Satzsemantik verstehen. Es reicht aus, dass man die Maschine im Trial-and-Error-Verfahren die maschinenspezifischen Bedeutungen menschlicher Äußerungen lernen lässt. Dieses Erlernen lässt sich formal auf Grundlage von B. F. Skinners Lerntheorie als das Erlernen von Äußerungs-Bedeutungs-Paaren (Utterance-Meaning-Pairs) modellieren, was am Beispiel der akustischen Steuerung einer kognitiven Heizung (alternativ eines Autoradios) gezeigt werden soll.
Peter Klimczak (Dr. phil. et Dr. rer. nat. habil.) lehrt als Privatdozent Medien-, Kultur- und Technikwissenschaften an der Brandenburgischen Technischen Universität und forscht als Senior Research Fellow der Alexander von Humboldt Foundation an der University of Wroclaw zu digitalen/sozialen Medien, kognitiven Systemen sowie dem Einsatz künstlicher Sprachen in den Medien- und Kulturwissenschaften.
Jana Künzel (Marburg): Wenn Greta flüstert – Audiodeskription als akustisches Interface
Lange war es für blinde und sehbehinderte Menschen undenkbar, ohne die Hilfe eines Anderen, der ihnen das visuelle Geschehen auf der Leinwand erläutert, einen Film anzusehen. Doch durch die geflüsterten Erläuterungen fühlten sich andere Kinogäste oftmals gestört. Dies änderte sich erst in den 1970er Jahren als Gregory Frazier an der San Francisco State University of Creative Arts die Technik der Audiodeskription, die bei den Filmfestspielen in Cannes 1989 erstmals auch in Europa zum Einsatz kam, entwickelte. In meinem Vortrag spreche ich darüber, wie Audiodeskription eigentlich funktioniert und wie sie sich im Laufe der Zeit verändert hat. Zudem beschäftige ich mich aus medienwissenschaftlicher Perspektive mit der Frage, welchen Einfluss Apps wie beispielsweise „Greta“ auf die Veränderung der Audiodeskription haben und inwiefern man diese Apps, die eine Schnittstelle zwischen Menschen mit Sinnesbehinderung und dem Medium Film bilden, als akustische Interfaces bezeichnen kann.
Jana Künzel hat an der Philipps-Universität Marburg den Bachelor “Medienwissenschaft” studiert und danach den Master in “Medien und kulturelle Praxis” absolviert. Den Master hat sie im November 2021 abgeschlossen und ist derzeit dabei ein Promotionsprojekt zu entwickeln.
Benjamin Lindquist (Princeton): Text-To-Speech: From Assistive Technology to Virtual Voice Assistants
My talk will disentangle the relationship between today’s virtual voice assistants and their forerunners: reading machines for blinded WWII veterans. Scholars have addressed contemporary acoustic interfaces, focusing on how digital voices reflect and construct gendered norms (Woods 2018, Bergen 2016, Phan 2017). But this scholarship implicitly mirrors Silicon Valley’s preferred narrative of technological innovation and disruption. Yet the growth of “machine English” in the middle of the twentieth century was not intended to provide the affluent with talking appliances and “smart” homes. Thus, my talk will ask how and why these information prosthetics moved out of the masculine domain of war and into the world of commerce. And when why did artificial voices become increasingly female? By attending more holistically to the history of synthetic speech—and not just its recent incarnations—I will contribute to an ongoing conversation about the intersections of gender, technology, and the body.
Benjamin Lindquist is a Ph.D. candidate in the history department at Princeton University. Before joining Princeton, Benjamin worked as an artist. He graduated from the School of the Art Institute of Chicago (BFA) and Yale University School of Art (MFA). After earning his MFA, he taught media studies, studio art, and art theory at the University of Regensburg, Butler University, and Purdue University. Benjamin’s art and scholarship have been funded by the Beinecke Rare Book and Manuscript Library, Creative Time, DAAD, The Al Held Foundation, and a Fulbright Fellowship in Zürich, Switzerland. His publications have appeared in Western Historical Quarterly, Winterthur Portfolio, and Material Religion.
Christopher Klauke (Berlin): Appunns Tonometer. Zur Kolonialität eines akustischen Interfaces zur Vermessung von Musik im Phonogramm-Archiv Berlin
Im Phonogramm-Archiv Berlin wurden um 1900 die Musiken der kolonialisierten Welt nicht nur gesammelt und klassifiziert, sondern auch durch ein komplexes Verfahren tonometrisch untersucht, d.h. in Daten aufgelöst. Ein spezieller Apparat zur Bestimmung von Frequenzen–gefertigt vom Instrumentenbauer Georg Appunn –bildete hierbei die zentrale Schnittstelle zwischen dem modifizierten Phonographen des Archivs sowie Wissenschaftssubjekten mit spezifischen „sonic skills“ (Bijsterveld2019). Als akustisches Interface vermittelte der Apparat so auch zwischen den Musiker_innen kolonialisierter Kulturen und westlichen Wissenschaftler_innen, wobei dieses Verhältnis durch Machtasymmetrien gekennzeichnet war, welche nicht zuletzt durch das Interface selbst mit konstituiert wurden. Aus einer kritischen wissens- und medienhistorischen Perspektive rekonstruiert der Vortrag unter Rückgriff auf Archivmaterial die politischen Implikationen der Messpraxis des akustischen Interfaces Appunns Tonometer. Ausgehend von Überlegungen zu einer „Musicology of Interfaces“ (Dolan 2012) wird der Fokus dabei zum einen auf die (auditive) Bedienung und Affordanz des Interfaces gelegt, zum anderen auf die dadurch konstituierte Geste des kulturergreifenden Abhörens.
Christopher Klauke studiert Musikwissenschaft im Master an der Humboldt-Universität zu Berlin mit den Schwerpunkten Transkulturelle Musikwissenschaft/Historische Anthropologie der Musik und Geschichte und Theorie der Populären Musik, im Bachelor studierte er Musikwissenschaft und Kunstgeschichte an der Justus-Liebig-Universität Gießen. Zu seinen Interessen zählen medien- und kulturwissenschaftlich informierte Zugänge zur materiellen Kultur von Musik, epistemologische Dimensionen von Musik und der auf sie bezogenen Wissenschaften sowie die Historizität des Hörens. In seiner Masterarbeit beschäftigte er sich mit der historischen Genese und der Operativität der Wissenstechnikendes Hörens und Messens in der „Forschungsmaschine“ Phonogramm-Archiv Berlin. Derzeit bereitet er sein Dissertationsprojekt vor.
Alan Fabian (Hildesheim), Shake the Sound: Sonic Interaction Design in Music
Seit einiger Zeit entwickle ich am Musikinstitut der Universität Hildesheim im Rahmen verschiedener Forschungsförderungen eine Musikapp (https://www.uni-hildesheim.de/musik/forschung/musikapps-in-der-musikmedienpaedagogik/pages-musikapps/shakesampler/) sowie einen theoretischen Ansatz bezüglich einer niedrigschwelligen Interaktion mit Sound/Musik im Bereich des Sonic Interaction Design (Franinovic 2013, Serafin 2011) und der Community Music. Die App ist ein Interface, das körperliche Situiertheit im Raum unmittelbar an Klang koppelt. In ersten experimentellen Szenarien z.B. in der Schule hat sich gezeigt, dass auch z.B. Inklusionsschüler so Anschluss an Klassenmusizieren mit Musikapps finden können. Bei der App handelt es sich um eine Art Klangkompass. Dadurch ergeben sich vielfältige Sonic-Interaktion-Settings, von klanglicher Orientierungshilfe im Raum bis hin zu komplexen interaktiven Sound- und Musikszenarien. Zentral für den theoretischen Ansatz diesbezüglich ist die Embodied Music Cognition (Leman 2008, 2016) und da insbesondere Theoretisch-Praktisches zum Action-Perception-Model; klangliches und musikalisches Entrainment steht im Fokus.
Alan Fabian ist wissenschaftlicher Mitarbeiter am Institut für Musik und Musikwissenschaft der Stiftung Universität Hildesheim im Bereich Musik und Medien. Lehraufträge an verschiedenen Universitäten und Hochschulen. Fachgebiete: Musik(tabellen)formulare, Musik(klang)verwaltung und Musikverkehr, Musikmedienarchäologie, Computermusik/Elektronische Musik, Musikinformatik, Music Interaction Design. Promotion an der Musikhochschule Köln 2011 mit der Dissertation „Eine Archäologie der Computermusik. Wissen über Musik und zum Computer im angehenden Informationszeitalter“ im Kadmos-Verlag. Freiberuflicher Komponist im Bereich Algorithmische Komposition, Vorstandsmitglied der Initiative Musik und Informatik Köln e.V. (Computing Music). Studium u.a. am Institut für Sonologie in Den Haag, am IRCAM in Paris, im Studio für elektronische Musik der Musikhochschule Köln (Diplom), an der Internationalen Ensemble Modern Akademie Frankfurt a.M.
Carsten Wernicke (Lüneburg): MusickingFaces als Interfaces und Surfaces im Sinne metaphorisch-symbolischer Kopplungen humaner und dinglicher Entitäten digital-materieller Musikpraktiken
Haptisch-digitale Musik-Devices wie Roli Songmaker Kit, Ableton Push 2 oder das Linnstrument können aufgrund der ihnen zugrundeliegenden technologischen Bedingung (Hörl 2011)und ihrem modularen Charakter (Enders 2005: 27) als eine Verkettung, Verschaltung und Verschachtelung unterschiedlicher ineinandergreifender (technosozialer) Interfaces verstanden werden, die zudem im Sinne allgemeiner Interface-Theorien auch durch ein Surface (Hookway 2014: 15) mit Tastaturen, Pads, Potis etc. konstituiert sind. Als MIDI-Controller ist die Grenze ihrer Konnektivität das MIDI-Protokoll und entsprechender Kompatibilitäten zu allen möglich vorstellbaren musikalischer Interfaceverbindungen. Zugleich sind diese Devices und beteiligten Entitäten wie Hardware und Software nicht im klassischen Sinne als Musikinstrumente zu verstehen(Kvifte 2008). Als„MusikmachDinge“ (im Englischen: musickingThings) im Sinne Johannes Ismaiel-Wendts (Ismaiel-Wendt 2016) können sie auch zu Grenzobjekten (Star,2010, 701) musikalischer Praktiken werden: In mitforschender Kollaboration von Studienteilnehmenden wie in musikalischen Praktiken konstituiert erst das Arbeiten mit und an den Devices die Objektgrenzen der Devices mit, was zugleich auf die Beziehung zwischen Device und Musikerin zurückwirkt. Die Strukturlogik der Interfaces als Relationen/Punkte einer Begegnung oder Kopplung zwischen zwei oder mehreren (abgrenzbaren) Entitäten oder Systemen, Existenzbedingungen wie Zustände sowie/oder deren Grenzen zueinander (Halbach 1994: 168; Hookway 2014: 4; Hadler/Haupt 2016; Hadler 2018) wird somit auch zur Strukturlogik der Beziehung zwischen MusikmachDing und Musikerin. Diese Strukturlogiken werden sodann nicht lediglich durch visuelle Signifizierungen analysierbar. Erst auf der akustischen Ebene wird eine Überführung in spezifische Praktiken analytisch erfahrbar, insofern der akustische Interface-Layer die inhärenten informatorischen wie musikkulturellen Prozesse wesentlich appräsentiert. In der Übernahme des MusikmachDinge/musickingThing-Konzepts möchte ich diese Interfacerelationen, bestehend aus Interfaces und Surfaces, als musickingFaces bezeichnen, die zum einen im „musicking“ auch auf ein performatives Grundverständnis musikalischen Handelns (Small 1998) verweisen und andererseits für den Mensch-Computer-Interaktionsaspekt (Hellige 2008) in digital-materiellen Musikpraktiken sensibilisieren.
Carsten Wernicke hat Musikwissenschaft an der Hochschule für Musik für Franz Liszt Weimar studiert. Von 2011 bis 2017 war er dort wissenschaftlicher Mitarbeiter am Gemeinsamen Institut für Musikwissenschaft Weimar-Jena. Von 2017 bis 2021 war er wissenschaftlicher Mitarbeiter im BMBF-geförderten Forschungsprojekt „Musikalische Interface-Designs:Augmentierte Kreativität und Konnektivität“ (Teilprojekt 2) an der Leuphana Universität Lüneburg. Zurzeit beendet er sein Dissertationsprojekt an der Leuphana Unversität.
Axel Volmar (Siegen): Akustische Interfaces als Werkzeuge wissenschaftlicher Erkenntnis in der Geschichte der Naturwissenschaften
Das Sehen gilt in der westlichen Philosophie seit jeher als privilegierter Erkenntnissinn, und auch die modernen Naturwissenschaften stützen sich (ebenso wie auch in ihrem Nachgang die Wissenschaftsgeschichte) mehrheitlich auf visuelle Verfahren zur Produktion und Kommunikation wissenschaftlicher Fakten und Erkenntnisse. Seit der Aufklärung mobilisieren die Natur- und Lebenswissenschaften jedoch immer wieder auch Hörtechniken und akustische Interfaces in Form epistemischer Werkzeuge für die experimentelle Forschungspraxis. Da gerade in den Experimentalwissenschaften Rechtfertigungspraktiken eine zentrale Bedeutung zukommt, bildet die auditive Kultur der Naturwissenschaften einen prädestinierten Einstiegspunkt, um nach dem epistemologischen Status auditiver Wissensproduktion im Allgemeinen sowie nach der Verfasstheit akustischer Interfaces im Besonderen zu fragen. Was unterscheidet akustische Interfaces von akustischen Medien, auditory displays und auditiven Darstellungen, d.h. Formen klanglicher Repräsentation wie etwa Sonifikationsverfahren bereitstellen? Der Vortrag widmet sich diesen Fragen am Beispiel der Historiografie auditiver Wissensproduktion in verschiedenen naturwissenschaftlichen Disziplinen und verfolgt das Ziel, aus dieser Auseinandersetzung dem historischen Material einige Kriterien zu gewinnen, die zur Analyse aktueller akustischer Interfaces wie Sprachassistenten (z.B. Siri, Google Assistant oder Alexa) und akustische Menüführung (z.B. bei Kundendienst-Hotlines) herangezogen werden können.
Axel Volmar ist seit 2016 wissenschaftlicher Mitarbeiter im SFB Medien der Kooperation an der Universität Siegen. Von 2014 bis 2016 war er Mellon Postdoctoral Fellow am Department of Art History and Communication Studies an der McGill University in Montreal. Zuvor war er wissenschaftlicher Mitarbeiter an der Humboldt-Universität zu Berlin (2006–2008) und der Universität Siegen (2008–2014). Er studierte Kulturwissenschaft, Theaterwissenschaft und Kommunikationswissenschaft und promovierte mit einer Arbeit über die Geschichte des Hörens als Erkenntnissinn der exakten Wissenschaften, die 2015 im Campus Verlag erschien. Von 2012 bis 2017 war er Sprecher der AG Auditive Kultur und Sound Studies der Gesellschaft für Medienwissenschaft.
Rizqi Prasya (Halle): Freizeichen: Das Medium vor der Botschaft
Im Jahr 2020 während der globalen COVID-19-Pandemie forderte die indische Regierung die großen Telekommunikationsanbieter auf, das Freizeichen durch das Husten einer Person zu ersetzen, gefolgt von einer öffentlichen Ansage, um die Nutzer des Telefonnetzes an die Gefahr der Pandemie zu erinnern (BBC, 2020, https://www.bbc.com/news/technology-51911071). Auf diese Weise nutzt die Regierung den ansonsten leeren Zwischenraum, der normalerweise für Pieptöne reserviert ist, und verwandelt private Anrufe in ein Medium für öffentliche Bekanntmachungen. Von diesem Ausgangspunkt aus lassen sich die verschiedenen Verwendungsweisen, Aneignungen und Transformationen des Freizeichens sowie die unterschiedlichen Nutzungsvorstellungen historisch nachzeichnen und untersuchen. Vom Medium der Selbstdarstellung bis hin zum Werbemedium ist das Freizeichen ein exemplarischer Fall, der uns dazu anregt, darüber nachzudenken, wie dem Klang, den wir vor jeder Verbindung hören, bestimmte Funktionalitäten zugeschrieben werden und er bestimmten bzw. unterschiedlichen Motivationen dient.
Rizqi Prasya studiert im 4. Semester des Masterstudiengangs Medien- und Kommunikationswissenschaft an der MLU Halle-Wittenberg. Sie hat ihren Bachelor-Abschluss in Kommunikationswissenschaften mit Schwerpunkt Werbung an der Universitas Paramadina in Jakarta erworben. Ihre Forschungsinteressen umfassen Medienindustrien und Mediensysteme, Media Work and Production of Cultures, Game Studies und Platform Studies.
Florian Schreiner (Friedrichshafen): Das Sound Spectrogram – Instrument und Konzept
Die Soundspectrographie ist ein klassisches Laborprodukt, sie entstammt den legendären Bell Telephone Laboratorien, Murray Hill N.J., heißt eigentlich Visible Speech und steht in der Bellschen Tradition des Sprechtrainings für Hörgeschädigte, Stammler, Stotterer, monotony, oratorical ineffectiveness, etc. In den 1920ern beschäftigt sich das hauseigene Acoustic Research Department dann mit elektrischer Sprachanalyse, synthetischem und automatischem Sprechen und während des Krieges mit der elektrischen Sprachnotation unserer nun sichtbar werdenden Patterns of Speech, d.h. einem hörspektral-analytischem Alphabet von lettern, pattern und Phonemen, wobei auch hier lesen lernen sprechen und hören lernen bedeutet. Die Spectrogramme finden als immutable mobiles und dank ihrer variabel einstellbaren Analyse-schärfe vielerorts Verwendung, etwa in Bonn, dabei ist die sonofikante Kehre bereits 1945 in der Konstruktion als „translation of visual symbols“ assoziiert, heißt dort einfach „pattern playback“ mittels photo-elektrischer Rück-/wandlung beliebiger Strukturen und wird dank des Sounddesigners LeCaine 1959 im neugegründeten UTEMS im kanadischen Toronto erstmals auch musikalisch bespielbar.
Florian Schreiner studierte Philosophie und Soziologie in Konstanz, war an der Humboldt Universität zu Berlin DFG-Stipendiat und promovierte am kulturwissenschaftlichen Seminar für Ästhetik unter Friedrich Kittler über Musik und Gewalt im hörphysiologischen und -technischen Sinne des frühen 20. Jahrhunderts. Er hielt Vorträge in Berlin, Potsdam, Lüneburg, Friedrichshafen und Bayreuth und gab zahlreiche Seminare zur Medien- und Technikgeschichte.
Markus Spöhrer (Konstanz): ‘Acoustic Gaming Interfaces’: Ermöglichung und Verhinderung digitaler Spielprozesse in soziotechnischen Spiel-Arrangements mit akustischen Eingabetechnologien und –techniken.
Im Bereich assistiver sowie accessible Gaming-Technologien und –softwares spielt‚ voice-controlled gaming‘ eine tragende Rolle: einerseits in Form von zielgruppenrelevanten Nischenprodukten und andererseits in Form von Soft- und Hardware-Hacks und –Mods, die in entsprechenden Accessibility-/Disability-Foren und –netzwerken vertrieben werden. Der Vortrag beschäftigt sich mit den Praktiken und der Mediation von akustischem Game-Interfacing‘, das sich durch Prozesse zwischen ‚acoustic interfaces‘, Körpertechniken und Spielerinnen ergibt und im Zuge dessen eine ‚Einspielung‘ ermöglicht oder verhindert wird. Anstatt akustische Gaming-Technologien oder Spielerinnen zu essentialisieren, geht der vorliegende Beitrag den durch das digitale (Nicht-)Spielen generierten Relationen, Handlungen und Agencies bzw. der reziproken ‚Ins-Spiel-Setzung‘ akustisch gesteuerter Spielprozesse nach und exemplifiziert diese an sowohl historischen als auch rezenten Beispielen. Hierbei werden sowohl Mainstream-Technologien als auch DIY-Praktiken, Workarounds und Hacks berücksichtigt.
Markus Spöhrer ist Postdoktorand im Teilprojekt 2 „Technosensorische Teilhabeprozesse. App-Praktiken und Dis/Ability“ der DFG-Forschungsgruppe “Mediale Teilhabe. Zwischen Partizipation und Inanspruchnahme” an der Universität Konstanz. Forschungsschwerpunkte sind Theorien und Methoden digitalen Spieles, Akteur-Netzwerk-Theorie, Medientheorie, Technosensorien auditiver Spiele und stereoskopische Medien. Er ist Mitherausgeber von Einspielungen. Prozesse und Situationen digitalen Spielens (Springer 2020).
Lea Luka Sikau (Cambridge): Silencing Interfaces: Acoustic Screen Affordances in the Posthuman Opera Upload (2021)
Furthering the burgeoning discourse on posthumanism, composer and director Michel van der Aa produces Upload (2021). This opera deals with uploading your mind to a server, turning into an avatar, and losing your physical body in the process. A father turns into an avatar, while his daughter remains in the world we know. In this presentation, I examine Upload by shifting the focus from score and operatic performance to the rehearsal space. Drawing on two months of ethnographic fieldwork at the opera house, this presentation detangles operatic rehearsal practices by specifically focusing on one nonhuman materiality in the studio: screens. How do the properties of screens contribute to mediating the space? While the ‘screenification’ of operatic voices is a widely discussed topic, there are so far no accounts of how actual screens in the rehearsal studio affect opera’s process. This paper makes an exploratory case for analysing the modification of sound spatialities by screens.
Artist-Researcher Lea Luka Sikau forscht an der Schnittstelle von Posthumanismus, Musiktheater und Probenprozessen. Sie arbeitete bereits mit Marina Abramovic, Rimini Protokoll, Jörg Widmann, Sir Peter Jonas und Julius von Bismarck zusammen. Derzeit promoviert sie an der Universität Cambridge. Im Jahr 2020 wurde sie für ihre Projekte an der Schnittstelle von Musik und Technologie am MIT und an der Harvard Universität mit dem Bayerischen Kulturpreis ausgezeichnet. “Lea Luka Sikau is an outstanding musical innovator who investigates, challenges and extends the existing norms of music-based projects.“ (Marina Abramovic)
Margarethe Maierhofer-Lischka (Graz): Oto-morphes Publizieren – kreativ-kritische Designstudien und Überlegungen zum Buch als akustischem Interface
Nicht nur die Musikwissenschaften, sondern auch andere Disziplinen, die sich mit Klang als Forschungsgegenstand auseinandersetzen, stehen vor der Frage: wie lassen sich Klänge, Klangerfahrungen und akustisches Wissen am Besten vermitteln? Was an Information und sinnlicher Qualität geht verloren oder tritt hinzu, wenn das Hörbare in andere Medien umgewandelt wird? Trotz der Omnipräsenz multimedialer Technologien in unserer heutigen Gesellschaft ist im Bereich der Wissenschaft, vor Allem des Geisteswissenschaften, immer noch der Text bzw. das Buch das wichtigste, paradigmatische Interface für den Austausch und die Verbreitung von Wissen. Als Klangkünstlerin und Forscherin experimentiere ich seit Längerem mit alternativen Formen “oto-morphen” Schreibens und Publizierens (von griech. “otos”, Ohr, mein eigener Begriff), die Sound bzw. Hören und Hörbares auf verschiedene Weisen einbeziehen. Dabei erkunde ich Möglichkeiten, das Buch als akustisches Interface neu zu definieren: als Generator für Klang, als Repräsentationsraum, als papiernen Lautsprecher oder physischen Audio-Schaltkreis, aber auch als haptisches Interface für Sound und Reflexionsraum für Klangqualitäten. Mithilfe der Methodik des “Design Thinking” habe ich verschiedene Prototypen für oto-morphe Publikationen aus analogen Materialien und Elektronik, aus Hardware und Software erarbeitet. Mein Vortrag ist ein Hybrid aus kreativem und wissenschaftlichem Beitrag. Ich teile die praktischen Ergebnisse meiner Designstudien und möchte im Austausch mit den Tagungsteilnehmerinnen den dahinterliegenden theoretischen Überlegungen nachgehen: wie lassen sich neue akustische Interfaces zur Wissens- und Wissenschaftsvermittlung für die auditive Medienforschung gestalten? Welche Funktionen und Möglichkeiten sollen und können diese erfüllen? Und wie können Forscherinnen selbst neue, bedarfsgerechte Interfaces entwickeln, um ihre Gedanken und Arbeiten zu teilen?
Margarethe Maierhofer-Lischka studierte Orchestermusik, Musikwissenschaft und zeitgenössische Musik in Dresden, Rostock und Graz, sowie interdisziplinäre Klangkunst an der ZHdK Zürich. 2020 Promotion an der KUG Graz zu Klanginszenierungen im zeitgenössischen Musiktheater. Sie ist als freischaffende Künstlerin, Musikerin, Wissenschaftlerin und Dramaturgin tätig und arbeitet dabei für Film, Radio, auf der Bühne sowie mit Interventionen im öffentlichen Raum. Derzeit ist sie Lehrbeauftragte für Musik & Medien am Institut für Musik- und Tanzwissenschaft an der Uni Salzburg. https://suonoreale.mur.at
Daniel Wessolek und Thomas Miebach (Berlin): Den Turn zum Auditiven weiterdrehen: Akustische Interfaces für taube Menschen
Ausgehend von einem Turn zu Auditiven Benutzerschnittstellen beschreiben wir in unserem Beitrag kollaborative Bemühungen, den in Kinderzimmern verbreiteten Hörstift TipToi über Methoden des Hackings und eigenentwickelter Zusatzkomponenten Tauben Menschen zugänglich zu machen. Das digitale Lernspielzeug will über visuelle Elemente, wie Geschichten in Gebärdensprache, die Buchbildebene erweitern und dazu anregen eigene Spiele und Medien zu gestaltet. Seit 2015 gibt es ein Software Projekt, das tttool, das sich als Schweizer Messer für den Tiptoi-Bastler versteht und das proprietäre Dateiformat des Tiptoi entschlüsselt. Hier werden auch Werkzeuge zur Modifikation bestehender Inhalte und zum Erstellen eigener Medien angeboten. Über diesen Weg wird es möglich, die Kommunikation des Hörstifts mit einem weiteren Mikrocontroller umzusetzen, mit einem OLED Bildschirm. In unserem Vortrag wollen wir verschiedene Ansätze und Möglichkeiten vorstellen den Tiptoi auch für Taube Kinder attraktiv zu machen. Durch unseren kritischen Hacking-Ansatz wird der Ausschluss Tauber Menschen aus dem letzten Medienturn vom Visuellen zum Auditiven thematisiert.
Daniel Wessolek arbeitet auf dem Gebiet der Personal Fabrication und des Co-Designs. Zuvor forschte er als Postdoc an der Singapore University for Technology and Design (SUTD) zu Assistiven Technologien. Im Jahr 2016 verteidigte er seinen Dissertation in Kunst und Design zum Thema “Simple Displays” an der Bauhaus-Universität Weimar, wo er auch als wissenschaftlicher Mitarbeiter im Bereich Interaction Design tätig war. Er hat außerdem einen MFA in Medienkunst und -design von der Bauhaus-Universität Weimar, einen MA in Kunsttheorie von der Tongji-Universität Shanghai und einen BA in Digitale Medien der Hochschule für Künste Bremen. Thomas Miebach ist von Geburt an ein Gebärdensprachler und in der Tauben Gemeinde aufgewachsen. Er studierte Interfacedesign an der Fachhochschule Potsdam und war Vorstandsmitglied des Berliner Vereins der gehörlosen Jugend “jubel3”. Er ist seit vielen Jahren freiberuflich als Digital Media Designer für diverse Gehörlosenorganisationen und Gehörlosenverbände tätig.
Jan Claas van Treeck (Hamburg): Haptischer Sound – Sonifizierung als epistemische Resource?
Innerhalb der Medientheorien gibt es sowohl aus der kanadischen Schule als auch der postkittlerianischen Medienarchäologie immer wieder Bezüge auf Soundphänomene als Grundlagen von digitalen Medien. Wolfgang Ernsts „Sonisches“ – referierend auf McLuhans „Acoustic Space“ – oder Shintaro Miyazakis Idee der „Algorhythmik“, aber auch Untersuchungen praktisch genutzter Phänomene oder künstlerische Strategien bieten ein breites, aber auch disparates Feld einer Betrachtung von Soundphänomen. Sonifizierung als Hören auf die Medien „selbst“ wird immer wieder ins Spiel gebracht. Damit situiert sich das medienarchäologische Ohr als non-diskursive Praxis oder eventuell als Versuch einer anderen Praxis der Betrachtung medialer Phänomene, ganz in der kittlerschen Tradition der „Austreibung des Geistes aus den Geisteswissenschaften“. Der projektierte Vorschlag nutzt einen selbst entwickelten und während eines Forschungsaufenthalts am IXDM/Critical Media Lab gebauten Sonifizierungshandschuh als praktisches/theoretisches Objekt der kritischen Befragung des epistemischen Potenzial der Idee des „Hörens mit medienarchäologischen Ohren“.
Dr. Jan Claas van Treeck ist Hochschuldozent an der HS Fresenius Hamburg. Studium an der Ruhr-Universität Bochum und der Yale University, dort auch Promotion zum PhD, dazwischen und nebenher langjährige Tätigkeit als Consultant und Strategieberater für ›Fortune 500-Firmen‹ und das ›CANSOFCOM‹ der Canadian Army. Er forscht zu Kybernetik, Digitalökonomie, Mensch-Maschine-Interaktionen, Cyborgs, Sonizität, Biohacking, Technosensing und Posthumanismus. Letzte Veröffentlichung: »Enden des Internets. Piazza Virtuale revisited. Gespräch mit Benjamin Heidersberger«, in: Jens Schröter, Tilman Baumgärtel, et. al. (Hrsg.), Bettina (Hrsg.): Navigationen. Zeitschrift für Medien und Kulturwissenschaften, JG 21 H2, Siegen 2021, S. 51-66.
Kooperative Tagung der AG „Interfaces“, der AG „Auditive Kultur und Sound Studies“ sowie der AG „Medienwissenschaft und Dis/Ability Studies“ der Gesellschaft für Medienwissenschaft (GfM)
Zeit & Ort
4.– 6. Mai 2022, Humboldt-Universität zu Berlin, Medientheater, Georgenstraße 47 in 10117 Berlin
Interfaces, verstanden nicht nur als Schnittstelle und Ort zwischen zwei (oder mehr) Entitäten wie Maschine/Maschine oder Mensch/Maschine, sondern als Medien der Darstellung und Repräsentation von Daten sowie als Kommunikations-, Interaktions- und Kooperationsbedingungen, werden in der Medienwissenschaft häufig primär unter visuellen Gesichtspunkten thematisiert. Forschungen zur auditiven Ausgestaltung von Interfaces sind demgegenüber immer noch vergleichsweise rar. Matthew Kirschenbaum (2008) attestiert den New Media Studies einen „prevailing bias […] toward display technologies“. Erkki Huhtamos begrifflicher Vorschlag einer „Screenology“ für ein disziplinäres Feld, welches sich mit Screens als „information surfaces“ beschäftigen solle, kann dafür als ebenso programmatisch gelten wie Lev Manovichs prospektiver Attest, unsere Gesellschaft sei eine „society of the screen“.
Der fünfte Workshop der GfM-AG Interfaces zum Thema „Interfaces & Diversität“, der für den 4.-5. Juni 2020 an der UdK Berlin in Kooperation mit dem ZeM geplant war, musste leider verschoben werden.
Die Universität der Künste Berlin hat bis auf weiteres jegliche Veranstaltungen abgesagt, dies ist aber natürlich nur der institutionelle Grund, der den geplanten Workshop verhindert. Unter den aktuellen Umständen können wir – Ihre und Eure Gesundheit und Reisebedingungen vor Augen – den Workshop in der geplanten Form (auch nicht im Rückgriff auf digitale Substitute) nicht durchführen.
Unsere Planung sah u.a. vor, die vier Schwerpunkte, „Programmatik“, „Entwürfe“, „Phänomene“ und „Effekte“, in verschiedenen Zonen im Raum in einer aktiven Workshop-Atmosphäre gemeinsam zu erarbeiten. Eine solche Form des räumlichen Denkens und Arbeitens ist schwerlich auf digitale Umgebungen übertragbar.
Wir beobachten die Situation und melden uns möglichst bald mit genaueren Plänen, einen angemessenen Austausch zu Interfaces & Diversität zu ermöglichen. Wir hoffen dabei insbesondere, dass die bereits eingegangenen Einreichungen auch nach der Verschiebung aufrecht erhalten werden können.
Uns ist bewusst, dass in die Beiträge bereits viel Mühe geflossen ist, aufgrund der Verschiebung soll diese Mühe hoffentlich nicht umsonst gewesen sein!
Für Rückfragen und Anmerkungen stehen wir jederzeit gerne zur Verfügung. Wir hoffen auf Ihr und Euer Verständnis und wünschen weiterhin beste Gesundheit und alles Gute,
herzliche Grüße,
Das Organisationsteam:
Konstantin Haensch (Berlin), Jan Distelmeyer, Alice Soiné, Daniel Stoecker, Nicole Schimkus (Potsdam), Sabine Wirth (Marburg)
Der jährliche Workshop der AG Interfaces in der Gesellschaft für Medienwissenschaft richtet sich 2020 auf Diversität aus. Das Konzept der Diversität, das derzeit in fachübergreifenden, gesellschaftlichen und politischen Debatten als die Anerkennung von Vielfalt verstanden wird und im Umkehrschluss die Überwindung monokultureller, normativer und homogener Umgebungen und Ideologien anstrebt, prägt dabei mehr als nur die thematische Ausrichtung. Auch die Struktur dieses nunmehr fünften AG-Workshops will sich daran orientieren.
Der gemeinsam von den AGs Interfaces und Mediengeschichte am 24. und 25. Mai 2018 an der Universität Paderborn veranstaltete Workshop „Interface-Geschichten“ fragte in doppelter Hinsicht nach dem Verhältnis von Interfaces und Geschichte: Zum einen wurde die Temporalität und Historizität von Interfaces verhandelt, zum anderen die Frage adressiert, wie Interfaces selbst an der Verfertigung von Geschichte(n) mitwirken.
Dies ist das Weblog der Arbeitsgemeinschaft Interfaces in der Gesellschaft für Medienwissenschaft (GfM). Es dient dem Austausch von Informationen über Veranstaltungen, Veröffentlichungen und Forschungsvorhaben im Umfeld der AG. Darüber hinaus werden aktuelle internationale Diskussionen zum Thema Interfaces aufgegriffen.
Mitglied kann jede und jeder werden, die/der sich für Interfaces in einer medienwissenschaftlichen Perspektive interessiert. Eine Mitgliedschaft in der GfM ist dafür nicht nötig. Zugleich ist aber jede/jeder herzlich dazu eingeladen, unserer Dachorganisation beizutreten.
Durch die weitere Nutzung der Seite stimmst du der Verwendung von Cookies zu. Weitere Informationen
Die Cookie-Einstellungen auf dieser Website sind auf "Cookies zulassen" eingestellt, um das beste Surferlebnis zu ermöglichen. Wenn Sie diese Website ohne Änderung der Cookie-Einstellungen verwenden oder auf "Akzeptieren" klicken, erklären Sie sich damit einverstanden.