Sie sind hier:  
  1. ifib-research
  2. Blog
  3. Detail

Das ifib auf der CHI 2023: Verständliche Sprache, Falschinformationen & Geistarbeit

Das ifib ist auch in diesem Jahr auf der ACM SIGCHI vertreten. Die SIGCHI ist die wichtigste Tagung im Bereich Mensch-Computer-Interaktion und findet in diesem Jahr in Hamburg statt. Neben einem Beitrag ist das ifib an zwei Workshops beteiligt.

Am kommenden Mittwoch werden Dr. Hendrik Heuer (ifib, Universität Bremen) und Prof. Dr. Elena Glassman (Harvard University) ihren gemeinsamen Beitrag "Accessible Text Tools: Where They Are Needed & What They Should Look Like" präsentieren. In diesem Beitrag führen sie den Begriff "Accessible Text Tools" ("Hilfsmittel für barrierefreie Texte") ein. Der Begriff beschreibt jede sozio-technische Intervention, die den Zugang zu Texten erleichtert. Sie untersuchen außerdem, in welchen Szenarien solche Unterstützung benötigt wird und wie diese Unterstützung aussehen muss. Dazu haben sie Expert:innen befragt, die Szenarien und Werkzeuge vorgeschlagen haben. Häufig genannte Szenarien sind die öffentliche Verwaltung, die medizinische Kommunikation und das Alltagsleben. Die vorgeschlagenen technischen Werkzeuge unterstützen Leser:innen, indem Texte komprimiert, erweitert, und überprüft werden. Darüber hinaus gibt es Impulse, wie das Lesen unterstützt werden kann.

Basierend auf ihren Ergebnissen beschreiben die Autor:innen das "Accessible Text Framework". Das Framework hilft Forscher:innen dabei, zu verstehen, wie die verschiedenen Softwaretools gestaltet und kombiniert werden können. Darüber hinaus beschreiben sie, wie diese Unterstützung technisch umgesetzt werden kann. 

Motivation für diese Forschungsarbeit war, dass 12,1 % der in Deutschland lebenden Menschen als funktionale Analphabet:innen gelten. Sie können sich nicht an allen Aktivitäten beteiligen, bei denen Lese- und Schreibkenntnisse für ein effektives Funktionieren ihrer Gruppe und Gemeinschaft erforderlich sind.

Der Workshop "Building Credibility, Trust, and Safety on Video-Sharing Platforms" bringt Wissenschaftler:innen zusammen, um technische und gestalterische Lösungen zur Verbesserung der Glaubwürdigkeit, des Vertrauens und der Sicherheit von Empfehlungssystemen auf Plattformen wie YouTube und TikTok zu entwickeln. Ziel es Workshops ist es, Forschungsrichtungen für die Gestaltung von Technologien und Richtlinien für Video-Sharing-Plattformen zu diskutieren und zu identifizieren. Dies ist wichtig, weil die Sorge wächst, dass derartige Plattformen für die Verbreitung von Fehlinformationen und kontroversen Inhalten missbraucht werden.

Im Workshop "Behind the Scenes of Automation: Ghostly Care-Work, Maintenance, and Interferences" beschäftigen sich Expert:innen damit, zu ergründen, welche oft unsichtbare und prekäre Arbeit notwendig ist, damit KI-Systeme „automatisch“ entscheiden können. Der Workshop befasst sich mit der geisterhaften Präsenz von Menschen und menschlicher Arbeit in der Automatisierung und den damit verbundenen Herausforderungen für Forschung und Praxis.



Nachrichten