Rückblick 2019

World Usability Day 2019 – Würzburg

Im Jahr 2019 dominierten zwei wichtige Themen unser gesellschaftliches Leben, nämlich Nachhaltigkeit und die Zukunft dieser Erde. Mit dem diesjährigen Motto ,,Designing for the Future we want“ trifft der World Usability Day (WUD) den Nagel auf den Kopf. Denn was heute passiert und entsteht, kann uns in unserer Zukunft nachhaltig beeinflussen. Deshalb trafen sich viele interessierte Studierende, Wissenschaftler und Vertreter aus der Wirtschaft, um gemeinsam zu ergründen, wie man die Welt mit einer einflussreichen Entwicklung verbessern kann.

 

Zu sehen sind ein voll besetzter Saal des Felix-Fechenbach-Hauses und die Begrüßungsfolie des WUD 2019 von der German UPA.
Publikum des World Usability Days in Würzburg
 
Weit über 200 Teilnehmer besuchten dieses Jahr den World Usability Day in Würzburg, welcher im Felix Fechenbach Haus im Stadtteil Grombühl stattfand. Neben vielen interessanten Vortragsthemen gab es dieses Jahr auch zwei Workshops. Ein Workshop wurde von jo’sbüro, dem Design-Sponsor des WUD 2019, gehalten und befasste sich mit dem User Centered Design Process. Von Mayflower, unserem Silbersponsor, wurde der zweite Workshop „Prototyping the Future“ angeboten.
 
Jo Breidenbach steht vor einer Präsentationsfolie und gibt eine Einführung zu Personas.
Blick in den Workshop von Jo’s Büro
Gruppe aus Workshop Teilnehmern sitzt beim Brainstorming an einem Tisch
Die interaktiven Workshops kamen gut an.
Steffen Hartmann und Katrin Bertschy geben eine Einführung in "Prototyping for the Future"
Blick in den Workshop von Mayflower
 
 
 

Eröffnet und moderiert wurde der WUD in Würzburg durch Prof. Dr. Carolin Wienrich, Inhaberin des Lehrstuhls Mensch-Technik-Systeme am Institut für Mensch-Computer-Medien der Universität Würzburg. Nach einer kurzen Vorstellung des Goldsponsors Simplifier durch Tilmann Bock, startete der erste Beitrag über „Digital Companionship und Social User Experience“. In diesem sprachen Prof. Carolin Wienrich und Dr. Astrid Carolus über die Interaktion zwischen Menschen und ihren technischen Geräten wie Smartphones oder Smartspeakern. Erörtert wurde, welche psychologischen Prozesse bei unserer Interaktion mit technischen Geräten ablaufen und wie diese unsere Beziehung zu ihnen beeinflussen. Ergänzend dazu wurden die daraus resultierenden Folgen für das Design von technischen Geräten aufgezeigt. Dadurch dass der Mensch eine soziale Bindung zu seinen Geräten aufbaut, muss dieser Aspekt nun auch in den bekannten Konzepten wie der User Experience berücksichtigt werden.

Astrid Carolus und Carolin Wienrich nehmen nach ihrem Vortrag Fragen des Publikums entgegen (im Vordergrund meldet sich ein Zuhörer)
Dr. Astrid Carolus und Prof. Dr. Carolin Wienrich
 
Der nächste Vortrag „Usability und Webtechnologie in der Industrie“ wurde von Christian Rudolph von HMI Project gehalten. Er erklärte anhand eines praktischen Beispiels wie man die nutzerzentriere Gestaltungsweise im Sondermaschinenbau dafür nutzen kann, ein möglichst innovatives und abwandelbares User Interface zu gestalten. Denn auch dort müssen Nutzerbedingungen untersucht werden und in dem Design von Software-Lösungen beachtet werden. Denn mit den Labeln wie „Fettpresse“ oder „Winkelwolf“ für Knöpfe kann nicht jeder auf Anhieb etwas anfangen.
 
Christian Rudolph nimmt eine Frage von Prof. Dr. Carolin Wienrich entgegen
 
Prof. Dr. Nicholas Müller berichtete in seinem Vortrag „Taktiles Assistenzsystem für die diskrete, nonverbale und anwenderunabhängige Bestimmung von Gesichtsemotionen im Alltag“ den Zuhörern über die Kommunikationssituation für Menschen mit einer Sehbehinderung. Während der Face-To-Face Kommunikation werden viele Informationen über Gestik und Mimik weitergegeben. Des Weiteren werden diese visuellen Kanäle dafür genutzt, dass das eigene Gesprochene mit den Gesichtsemotionen des Kommunikationspartners abzugleichen. Das Problem, was hierbei für visuell eingeschränkte Menschen entsteht, ist, dass der Abgleich mit dem eigenen Gesprochenen nicht stattfinden kann, da in diesen Situationen der Kommunikationspartner kein auditives Feedback gibt. Hieraus resultiert eine wissenschaftliche Frage, wie man diesen visuellen Feedbackkanal ersetzen kann. In einem prototypischen Versuch eines taktilen Assistenzsystems für die Gesichtsemotionserkennung wurde eine Handykamera über der Hemdtasche angebracht, die durch Facial Action Coding die einzelnen Emotionen codiert und an den User durch Vibrationselement an der nichtdominanten Hand weiterleitet. Damit wird der visuell-eingeschränkten Person ermöglicht, seinen Sprechteil mit einem emotionalen Rückkanal abzugleichen.