Author Archives: Jana Hecktor

Interfaces, Click-Work und KI

Auch zwei Monate nach unserem AG-Workshop wirken die Gespräche und Diskussionen nach. Um euch weiter teilhaben zu lassen, möchten wir hier einige Schlaglichter aus dem Workshop aufgreifen und vertiefen.


Den Anfang macht das Thema des Click-Workings. Im Workshop haben wir gemeinsam zwei eindrückliche Ausschnitte aus Videoarbeiten angesehen und diskutiert Die Links zu den entsprechenden Arbeiten sowie damit verbundenen Internetauftritten und Organisationen findet ihr am Ende dieses Beitrags. Dazu findet ihr unten auch einen Link, unter dem ihr den Text von Jan Distelmeyer zu diesem Thema abrufen könnt. Einen zu unseren Diskussionen und den Arbeiten passenden Ausschnitt dürfen wir aber auch hier schon teilen.

Auszug aus: „Mit KI zu tun bekommen. Daten, Arbeit und Interfaces“, in: CARGO Film/Medien/Kultur, Nr. 65, 2025, S. 52-61

Menschliche Arbeitsleistungen für KI sind öffentlich weit weniger präsent als die (künftigen) Leistungen von KI. Diese Datenarbeit findet zumeist dezentral und unter prekären Bedingungen auf Plattformen für Firmen statt, die für namhafte Player wie OpenAI, Microsoft oder Tesla die menschliche Kraft hinter der Technologie organisieren. Die vielleicht berühmteste Plattform solcher Organisation plattformisierter Arbeit ist Amazon Mechanical Turk (MTurk).

Zur Unsichtbarmachung solcher „data work“ – auch „gig work“ oder „click work“ genannt und im Ausdruck „ghost work“ nochmal unfreiwillig geghostet – tragen auf ihre Weise auch Verschwiegenheitsauflagen bei, die Beschäftigte unterzeichnen müssen. What happens here, stays here. Sie verhindern, dass die mannigfachen Probleme und Zumutungen dieser Arbeit öffentlich(er) werden.

In den letzten Jahren nehmen jedoch Informationen und Initiativen zu, die anschaulich zeigen, wie dringend die Bedingungen von Datenarbeiter*innen publik gemacht und verändert werden müssen. Zu wichtigen Organisationen gehören hier das Berliner „Superrr Lab“, das u.a. am „Content Moderators Manifesto“ von 2023 und an der transnationalen Initiative „Data Workers Demand Safe And Fair Conditions“ Anfang 2025 wesentlich beteiligt gewesen ist, und das „Distributed AI Research Institute“ (DAIR), das u.a. das Projekt der „Data Workers’ Inquiry“ betreibt, in dem 2024 die Berichte von 15 Datenarbeiter*innen in Venezuela, Kenia, Syrien und Deutschland veröffentlicht worden sind. So werden mehr und mehr Stimmen vernehmbar, die Auskunft darüber geben, was zur Genese von Auskünften durch z.B. ChatGPT gehört.

Beispielhaft berichtet Mophat Okinyi, der Gründer der Techworker Community Africa, gegenüber James (Mojez) Oyange und „Superrr Lab“ von seiner Arbeit für ChatGPT im Auftrag der Firma Sama. Bei seiner Leistung, mehr als 700 Texte und Textabschnitte pro Tag zu klassifizieren, bestand eine besondere Belastung darin, dass er dabei verstörenden und gewalttätigen Inhalten ausgesetzt war: „The idea was that ChatGPT would not generate sexual content when you write something sexual; the tool would self-regulate. But before reaching this point, it has to be trained by human beings. That is what I was doing.“

Was Mophat Okinyi beschreibt und kontextualisiert, war erstmals Anfang 2023 einer breiteren Öffentlichkeit bekannt gemacht worden. Damals hatte Time unter dem Titel „OpenAI Used Kenyan Workers on Less Than $2 Per Hour to Make ChatGPT Less Toxic“ über die Traumatisierungen von Beschäftigten bei Sama berichtet.

Für Roukaya Al Hammada, der auf der Grundlage persönlicher Erfahrungen der Datenannotation berichtet, sind „data workers“ so etwas wie „the ’hidden soldiers‘ of the Artificial Intelligence revolution“. Sein „Data Workers’ Inquiry“-Beitrag „How Syrian Refugees in Lebanon Train AI” bestätigt die besondere Rolle von Geflüchteten bei dieser Form plattformisierter Arbeit, die überall ausführbar wird, wo Geräte online sind und über dafür entwickelte Interfaces Eingaben erlauben.

Zugleich führt er damit vor Augen, dass Datenarbeit Interface-Arbeit ist: „Data annotators may work with images, text, audio, or video, drawing bounding boxes around objects in images, transcribing speech, or tagging entities in text.“ Sie klicken, markieren, benutzen Buttons, wählen aus Menüs und tragen Texte in Felder ein. Was ein Text ist, was ein Bild sagt, wie ein Auto aussieht, wie eine Zeichenfolge einzuschätzen ist – diese Erkennungs- und Erkenntnisleistungen müssen Menschen in die Maschinen bringen.

Solche Datenarbeit, die mit und dank Interfaces durchgeführt wird, ist darum auch noch etwas anderes: Kulturarbeit. Und entsprechend sollte sie verhandelt und bezahlt werden. Auch dieses mehr als berechtigte Anliegen, „the recognition of data work as a legitimate occupation“, gehört zu den Kenianisch-Deutschen Forderungen von „Safe And Fair Conditions“.

Wie dabei das Outsourcing-Prinzip potentiell alle Aspekte der Tätigkeit betrifft, betont Oskarina Veronica Fuentes Anaya, die in Lateinamerika seit über 10 Jahren freiberufliche KI-Datenarbeit leistet: „Ich mache diese Arbeit von meinem Computer aus, den ich mit meinem eigenen Geld gekauft habe, so wie ich für meine Internetverbindung und mein Telefon bezahle, die ich auch als Arbeitswerkzeuge benutze. Ich mache alles von meinem Zimmer aus. Alle Kosten gehen auf mich.“

Genau hier sieht Milagros Miceli, die am Berliner Weizenbaum-Institut und als Teil von DAIR seit Jahren die Arbeitsbedingungen der „data work“ erforscht und kritisiert, einen zentralen Grund für die Missstände. „Das Hauptproblem“, so Miceli, „liegt in der Auslagerung selbst“ – was sich ebenso an der mangelnden Vermeidung von und Hilfe bei Problemen zeigt („niemand fühlt sich verantwortlich“) wie auch an der Bezahlung pro Aufgabe, was den „den Raum für Preisdiskriminierung“ öffnet.

Nach Schätzungen der Weltbank zu „The Promise and Peril of Online Gig Work“ von 2023 arbeiten weltweit zwischen 150 und 430 Millionen Menschen in diesem Feld. Schwer zu schätzen ist diese Zahl gerade wegen des Outsourcing-Prinzips, das auch und gerade Flüchtlingscamps zu attraktiven Rekrutierungsorten werden lässt, wie Forschungen von Ariana Dongus zeigen.

Das macht „data work“ zu einem millionenfachen Musterbeispiel des Plattformkapitalismus, bei dem das Problem zugleich Teil der Lösung ist. Denn zur Wahrheit dieser Plattformisierung von Arbeit gehört auch, dass sich diese vereinzelt Beschäftigten über Plattformen (von WhatsApp-Gruppen bis zur Interventions-Initiative „Turkopticon“) über ihre Lage austauschen und organisieren.

—-

Weiterführende Links:

https://data-workers.org/

https://www.weizenbaum-institut.de/news/detail/datenarbeiterinnen-die-arbeitsbedingungen-und-bedeutung-der-menschen-hinter-ki/

https://superrr.net/en/blog/social-media-content-moderators-in-germany-our-manifesto

https://superrr.net/de/blog/data-workers-demand-safe-and-fair-conditions

Hier findet ihr den vollständigen Text: Mit KI zu tun bekommen

Plattform-Politiken 2025 – Zwischen Ästhetik, Ethik und Ökonomie digitaler Interfaces

Am 22. und 23. Mai 2025 fand an der Staatlichen Hochschule für Gestaltung Karlsruhe der Workshop der AG Interfaces statt. Mitglieder der AG sowie an den Themen interessierte Forschende trafen sich dieses Jahr unter dem Oberthema „Plattform-Politiken: Vermittlungen (un)sichtbarer Bildpraktiken und Interface-Operationen“. In vier thematisch strukturierten Panels boten die Teilnehmenden Einblicke in ihre Forschungen entlang der Schnittstellen zwischen Plattformen, digitalen Bildern, Wissenspraktiken und politischen wie ökonomischen Dynamiken. Ein besonderer Fokus lag neben den Vorträgen insbesondere auf dem gemeinsamen Austausch und inhaltlichen Diskussionen, die nicht nur bewusst in den Programmplan eingebaut, sondern auch durch die angenehme Atmosphäre und die Begeisterung aller Beteiligten für die Themen gefördert wurden. Abgerundet wurde der erste Workshoptag durch die Präsentation und Diskussion von Videos zu Data Work. Das Interesse der Teilnehmer:innen am Thema, die intensiven und anregenden Diskussionen und der spürbare Enthusiasmus sorgten zu guter Letzt auch dafür, dass der reservierte Restauranttisch doch noch etwas auf die Teilnehmenden warten musste.

Panel 1 „Ästhetische Politiken“

Lisa Rein eröffnete den Workshop mit ihrem Vortrag „Schöne neue Welt: Zur Beurteilung von Ästhetik durch Datenbanken algorithmischer Bildklassifizierung“, der sich den algorithmischen Bewertung von Bildern auf Plattformen wie Instagram widmete. Anhand von Datenbanken wie AVA oder LAION zeigte der Vortrag, inwieweit ästhetische Werte anhand numerischer Klassifizierungen und konkreter Deutungshoheiten entwickelt werden.  So basieren “Ästhetik-Algorithmen” teils auf spezifischen historischen, technologischen und sozialen Biases, beispielsweise auf Bildern aus den 2000er Jahren, die mit digitalen Spiegelreflexkameras aufgenommen und von weißen männlichen Hobbyfotografen bewertet wurden. Wenn daraus nun Ästhetik-Entscheidungen für gegenwärtige soziale Medien gezogen werden, scheint es nicht überraschend, dass auch postkoloniale Perspektiven und Fragen der Repräsentativität kritisch diskutiert werden. Anhand des mitgebrachten Bildmaterials ließ sich sehr schnell erkennen, dass konkrete Bildtypen – etwa spiegelnde Landschaften mit hohem Blauanteil – bevorzugt besser bewertet wurden. 

In dem zweiten Vortrag des Panels „Simulative Reinigung. ‘Clean-Up Games’, Interface-Effekte und Plattform-Politiken“ ging Katharina Weinstock der Frage nach, auf welche Weise Clean-Up Games, ASMR-Videos und Instagram-Feeds Gewohnheiten formen (können). Basierend auf einem auto-ethnografischen Ansatz zeigte sie, dass affektive Zustände wie Prokrastination oder Überforderung durch visuelle Interfaces in ritualisierte Interface-Handlungen – vom virtuellen Hochdruckreinigen bis hin zu digitalem Aufräumen – überführt werden können. Ihre Beobachtungen verweisen auf ein Plattformdesign, das zwischen Irritation und Kontrolle oszilliert und sich in ganz spezifischen audiovisuell geprägten Game-Praktiken kondensiert, die eine breite Menge an teils mundänen, teils irritierenden Handlungen unter dem Begriff der ASMR Games zusammenführen.

Nachdem zwei sehr konkrete ästhetische Dimension von Interfacepraktiken und -plattformen adressiert wurden, widmete sich das nachfolgende Panel “Politiken des Wissens” zwei weiteren Anwendungspraktiken desselben Diskursfeldes, fokussierte nun allerdings das jeweils in den Systemen implementierte und angewandte ‘Wissen’. 

Panel 2 „Politiken des Wissens“

Kim Albrecht zeigte in seinem Vortrag „Artificial Worldviews“, wie Visualisierungen als kritische Werkzeuge zur Analyse generativer KI genutzt werden können. Durch wiederholtes Prompting, welches schließlich in ca. 1800 API-Anfragen an ChatGPT mündete, generierte Kim etwa  700 Kategorien die sich alle unter den Begriff des Wissens subsumieren lassen. Diese Kategorien überführte er anschließend in ein räumliches Mapping von Verwandtschaftsverhältnissen und Assoziationen, welches sich – ebenso wie das Mapping zum Thema Power, das er auf dieselbe Weise erschuf –  auf seiner Webseite “Artificial Worldviews” anschauen und erkunden lässt. Ein entscheidendes Argument seines Vortrages war, dass solch ein Vorgehen nicht nur potentiell neues Wissen schaffen kann oder entsprechende Visualisierung andere Lesbarkeiten ermöglichen, sondern insbesondere, dass auf diese Weise auch die an sich oft als Black Boxes benannten maschinellen Systeme zugreifbar gemacht werden können. 

Der Vortrag „„Wissen destillieren“. Zu den Plattform-Politiken von Application Programming Interfaces und den Grenzen konzeptuellen Zugriffs auf Künstliche Intelligenz“ von Yannick Nepomuk Fritz knüpfte ebenfalls an die Frage nach Formen der Wissensproduktion an. In seinen Ausführungen beschrieb Yannick KI als ein Medium welches Wissen komprimiert und Outputs dabei zunehmend in neue Inputs überführt. Yannik arbeitete sich in seinem Vortrag an der These ab, dass die epistemische Klarheit verschwimmt und KI so, Ted Chiang folgend,  zum „blurry JPEG of the Web“ würde. Diese Überlegungen exemplifizierte er am  Beispiel der ‚konnektionistischen‘ Funktionsweise von Deep Seek.

Den Abschluss des ersten Tages bildete Panel 3, bestehend aus einem Vortrag von Konstantin Haensch sowie der Diskussion zweier Filmausschnitte über das Leben von Data Workers, mitgebracht und vorgestellt von Jan Distelmeyer.

Panel 3 „Politik und Ökonomie“

Konstantin Haensch analysierte in seinem Vortrag „From Surface to Strategy: The ‘Brand Interface’ and Its Political Economy in Platform Cultures“ das Interface als politischen und ökonomischen Akteur, dessen Oberflächenästhetik mit Markenlogiken verschränkt ist (Trump-Tesla-Musk). Die Marke lässt sich  – so seine These – nicht nur als Logo, sondern als Interface selbst lesen. Sie ist daher ein Ort von Zuschreibung, Kontrolle und Affordanz. Konstantins Vortrag schlug vor, Marken und Interfaces miteinander verschränkt zu diskutieren und dadurch die Kategorien des einen Diskurses auch auf den anderen anwendbar zu machen.

Jan Distelmeyer präsentierte zum Abschluss des Tages zwei Videos zu Data Work aus Perspektive der Arbeiter:innen sowie eines Verbundes an Aktivist:innen des Diskurses. Die Diskussionen entlang der Videobeiträge fokussierten daher nicht allein die Unsichtbarkeit der Arbeit sogenannter Click-Worker,. sondern insbesondere deren konkreten Arbeitswirklichkeiten – von der Arbeit-auf-Zuruf, über die erschwerten Home-Office Bedingungen bis hin zu der Freude und Leidenschaft, die manche Arbeiter:innen an dem Beruf und dessen Tätigkeiten haben.

In einem fließenden Übergang wurden die Diskussionen schließlich von der Hochschule für Gestaltung in ein fußläufig gelegenes Restaurant überführt, in dem der Tag in Ruhe und geselliger Atmosphäre ausklingen konnte.  

Der zweite Tag begann mit einem Rückblick auf die bis dato geführten intensiven und engagierten Diskussionen mit ersten schlaglichtartigen Kommentaren zu bisher offensichtlich gewordenen übergreifenden Interessen, Fragestellungen und Forschungsbereichen.Anschließend führten uns Tatjana Seitz und Pierre Depaz in dem vierten und letzten Panel in konkrete Ebenen der API-Politiken ein.

Panel 4 „API-Politiken“

In beiden Vorträgen standen technische Schnittstellen im Fokus. Tatjana Seitz und Pierre Depaz beleuchteten die Rolle von APIs sowohl aus kritischer, techniktheoretischer Perspektive als auch mit Blick auf ethische Fragen. 

Tatjana Seitz ging in ihrem Vortrag “Critical technical API studies: Eine praxisorientierte Untersuchung von Interfaces”  auf die Steuerung von Nutzerwegen („User Flows“) und Plattformästhetik durch Codepolitik ein. Dabei zeigte sie am Beispiel der Login-Praxis auf Facebook auf, wie der Zugriff auf Daten durch solche Prozesse der Erfahrungsoptimierung als Frage von API-Berechtigungen neu ausgehandelt wird und Benutzer:innen durch Plattformen geleitet werden, ohne allerdings “API Experiences” zu machen. 

Pierre Depaz diskutierte in seinem Vortrag “Pirate Programming Interfaces: Hijacking the stream” Alternativen wie „NewPipe“ als Beispiel für eine politische Intervention durch Interface-Substitution. In seinem Vortrag zeigte er eindrücklich, dass neue Interfaces zugleich stets auch neue Netzwerke und Abhängigkeiten schaffen, die sich auf die jeweilige Nutzung auswirken. “NewPipe” sollte daher nicht allein als Piraterie-Software, sondern auch unter seinen ökonomischen, ethischen sowie technischen Dimensionen betrachtet und analysiert werden. 

Resümee: Interface-Forschung als kritische Forschungspraxis

Der Workshop machte deutlich: Interfaceforschung bedeutet, wechselseitige Relationen ernst zu nehmen – zwischen Mensch und Maschine, zwischen technischer Infrastruktur und ästhetischer Wahrnehmung, zwischen gesellschaftlichen Bereichen (Politik, Wirtschaft) und Organisationen (Unternehmen, politische Träger). In den Diskussionen wurde das kritische Potential der Interfaceforschung immer wieder betont als ein Zugang, der ermöglicht, hinter Blackboxes zu blicken, Prozesse sichtbar zu machen und alternative Handlungsspielräume aufzuzeigen. Sichtbarkeit, Operationalisierbarkeit und Affektsteuerung sind zentrale Kräfte der Plattformisierung – und damit genuin politische Fragen.

Wir hatten nicht nur sehr schöne, angenehme sowie produktive und anregende Diskussionen in den zwei Tagen, sondern sind sicher, dass sich Teile des Austausches in der ein oder anderen Form auch in zukünftige Arbeiten einschreiben werden. Die Vortragenden haben daher die Möglichkeit, Teile ihrer Präsentation auf der Homepage der AG zu veröffentlichen. Damit soll auch die Sichtbarkeit der AG Mitglieder und ihrer Forschungsarbeiten gefördert werden.  

AG-Workshop »Plattform-Politiken: Vermittlungen (un)sichtbarer Bildpraktiken und Interface-Operationen«Workshop „Plattform-Politiken“, Mai 2025

Workshop, 22.–23. Mai 2025, Staatliche Hochschule für Gestaltung Karlsruhe
Veranstaltungsort: Lorenzstraße 15, 76135 Karlsruhe, Raum 112

In diesem Jahr findet der Workshop der AG Interfaces an der Staatlichen Hochschule für Gestaltung Karlsruhe statt. Am 22./23. Mai 2025 treffen sich Wissenschaftler*innen um gemeinsam die (un-)sichtbaren Operationen digitaler Interfaces und ihrer zentralen Rolle in den Bildpraktiken zeitgenössischer Plattformkulturen zu diskutieren.

Plattformen wie Instagram, TikTok, YouTube oder Facebook stehen immer in einem politischen Kontext und haben das Verständnis von Politik verändert (Hyperpolitik, Metapolitik). Sie bringen Praktiken zum Erscheinen, legen Handlungsweisen nahe, und versuchen diese infrastrukturell und diskursiv zu regulieren. Mechanismen der (KI-gestützten) Content Moderation, des Shadowbanning und der Zensur kontroverser Inhalte gehören ebenso dazu wie die Einführung und auch die Beendigung von Faktencheck-Verfahren. Zugleich können diese oft im Bereich des Mikropolitischen ansetzenden Strategien aber Nutzer*innen-Aktivitäten nicht komplett ausschließen, darüber hinaus oder dagegen zu agieren – z.B. durch Taktiken des Jailbreaking, die gezielte Nutzung von Hashtags oder memetischer Text-Bild-Kombinationen. Plattformen steuern Sichtbarkeit und Unsichtbarkeit durch spezifische Interface-Gestaltungen, koordinative algorithmische Prozesse und datenbasierte Entscheidungsmechanismen; auch die Plattformisierung generativer KI baut darauf. Dabei wirken Interfaces nicht nur als passive Vermittler von Inhalten, sondern erweisen sich als wirkmächtige Akteure in der Hervorbringung, Regulation, Modifikation und Kontextualisierung von Inhalten.

Kritik an Social-Media-Interfaces manifestiert sich jedoch nicht nur auf theoretischer Ebene, sondern zunehmend auch durch spielerische, taktische und subversive Nutzungspraktiken. Ob durch gezielte Tests der Plattformfunktionen, das bewusste Umgehen von Sichtbarkeitsalgorithmen oder durch alternative Bildpraktiken – Nutzer*innen erproben und hinterfragen die Funktionsweisen von Plattformen und können so deren zugrunde liegende Politiken sichtbar machen. Der Workshop widmet sich den unterschiedlichen Methoden, mit denen Interface-Operationen und Plattformpolitiken analysiert werden können, und stellt dabei Bildformen, -praktiken und deren Entstehungsbedingungen in den Mittelpunkt.

Besondere Aufmerksamkeit gilt dabei der Frage, wie adaptive Sichtbarkeiten und Unsichtbarkeiten unter Plattformbedingungen funktionieren und wie visuelle Kulturen durch Interface-Operationen und Hardware-Bedingungen geprägt werden. Indem Interfaces Prozesse der Bildentstehung aktiv mitgestalten, werden sie zu zentralen Akteuren von Medienästhetik und politischer Strukturierung digitaler Plattformen.

Diesen und weiteren Themen und Perspektiven widmen sich die Beiträge des diesjährigen Workshops. (siehe Programm unten) Gemeinsam wird über ästhetischen Politiken, Politiken des Wissens, Politik & Ökonomie sowie API-Politiken diskutiert. Wir freuen uns sehr eine so diverse und interessante Menge an Vorträgen versammeln zu können und laden alle Interessierten ein, zu unserem Workshop dazu zu kommen!

Konzeption & Organisation: Jana Hecktor (Tuebingen), Katharina Weinstock (Karlsruhe), Jan Distelmeyer (Potsdam), Timo Kaerlein (Bochum), Roland Meyer (Zürich), Marcel Thiel-Woznica (Mainz)

Programm

Donnerstag, 22. Mai 2025

14:00 – 14:30 Willkommensgruß & Einführung

14:30 – 16:00 | Panel 1 | Ästhetische Poltiiken
Moderation: Roland Meyer
Lisa Rein (Weimar):
Schöne neue Welt: Zur Beurteilung von Ästhetik durch Datenbanken algorithmischer Bildklassifizierung
Katharina Weinstock (Karlsruhe): 
Simulative Reinigung. ‘Clean-Up Games’, Interface-Effekte und Plattform-Politiken

16.00 – 16.15 | Kaffeepause

16:15 – 17:45 | Panel 2 | Politiken des Wissens
Moderation: Jan Distelmeyer (Potsdam)
Kim Albrecht (Essen): 
Artificial Worldviews 
Yannick Nepomuk Fritz (Karlsruhe): 
„Wissen destillieren“. Zu den Plattform-Politiken von Application Programming Interfaces und den Grenzen konzeptuellen Zugriffs auf Künstliche Intelligenz. 

17:45 – 18:00 | Pause 

18:00 – 19:30 | Panel 3 | Politik und Ökonomie
Moderation: Katharina Weinstock (Karlsruhe) 
Konstantin Haensch (Hildesheim): 
From Surface to Strategy: The ‘Brand Interface’ and Its Political Economy in Platform Cultures 
Abendprogramm: 
tbd 

20:00 Gemeinsames Abendessen:
Taumi – Asia Fusion Lorenzstraße 29 (Selbstzahlerbasis)

Freitag, 23. Mai 2025

9:15 – 9:45 | Rückblick auf die Diskussionen 

9:45 – 10:00 | Pause 

10:00 – 11:30 | Panel 4 | API-Politiken 
Moderation: Timo Kaerlein (Bochum) 
Tatjana Seitz (Siegen):Critical technical API studies: Eine praxisorientierte Untersuchung von Interfaces
Pierre Depaz 
(Karlsruhe): 
Pirate Programming Interfaces: Hijacking the stream 

11:45 – 13:00 | Roundtable 

ab 13:00 | Option zum gemeinsamen “Abschluss-Lunch”

Kontakt (AG-Sprecher:innen)

Marcel Thiel-Woznica (m.woznica@uni-mainz.de)

Jana Hecktor (jana.hecktor@izew.uni-tuebingen.de)