Ein Bild sagt mehr als tausend Worte, aber nicht wirklich

Ein Benutzer eines Bildschirmlesegeräts verwendet VoiceOver, um den Artikel der New York Times mit dem Titel

Zoey liebt das Surfen im Internet. Es macht ihm Spaß, sich in dem vernetzten Netz voller Informationen zu verlieren und Wissenslücken zu entdecken, die ein Lesezeichen wert sind. Aber es macht ihnen keinen Spaß, große Textmengen zu überfliegen. Sie bevorzugen Bilder. Viele davon. Sie sehen sich die Fotos ihres Schwarmes auf Facebook an, bevor sie überhaupt in Erwägung ziehen, dessen Lebenslauf zu lesen. Ihre Sehnsucht nach Memes und Visualisierungen ist so groß wie bei niemandem sonst auf diesem Planeten, und das spiegelt sich auch in ihren Instagram-Stories wider. Sie sind einfach stark mit ihrer visuellen Lernnatur verbunden. Und daran ist nichts auszusetzen.

Aber es gibt nicht nur Zoey auf der Welt. Es gibt Trung-Anh, es gibt Sewon, es gibt Nayon, es gibt Venkatesh, es gibt Zeqiu, es gibt Dinko, es gibt Sade, es gibt Ivan, und es gibt Mohammed. Nach Angaben der WHO sind mindestens 29 % (2,2 Milliarden) der Weltbevölkerung (7,7 Milliarden) in irgendeiner Form sehbehindert, was mindestens 3 Personen in der oben genannten Liste entspricht. Hmm, also, ähm … jetzt, wo wir wissen, dass 29 % der Bevölkerung möglicherweise nicht in der Lage sind, visuelle Inhalte zu sehen, was tun wir dann? Halten wir uns immer noch an die wörtliche Auslegung des Zitats von Fred Barnard „Ein Bild sagt mehr als tausend Worte“? Ich wage zu behaupten, dass ich das nicht tue. Nicht immer.

Eine oft gestellte Frage ist: Wie benutzen Menschen mit Sehbehinderung einen Computer? Zunächst einmal ist es wichtig zu verstehen, dass eine Sehbehinderung nicht gleichbedeutend mit Blindheit ist. Wenn Sie also jemanden sehen, der einen weißen Stock benutzt, wäre es falsch anzunehmen, dass er völlig blind ist. Wenn es um die Nutzung eines Computers geht, können die Betroffenen je nach ihrer Sehkraft Bildschirmleseprogramme verwenden, um den Inhalt auf dem Bildschirm zu lesen. Zu den beliebtesten Bildschirmleseprogrammen gehören JAWS, NVDA (kostenlos und quelloffen) und VoiceOver (in Apple-Geräte integriert).

Der Zustand der Welt

Gut! Wir haben also eine Möglichkeit für Benutzer von Bildschirmlesegeräten, mit ihren Computern oder mobilen Geräten zu interagieren. Aber wie kann ein Screenreader die Fotos seines Schwarmes lesen? Oder Memes? Oder Diagramme/Visualisierungen? Eine mögliche Antwort ist, dass wir medizinische Fortschritte machen sollten, um ihre Sehkraft zu heilen, oder dass sie einen persönlichen Betreuer/Freund/Familie haben, der ihnen erklären kann, was auf dem Bildschirm zu sehen ist. Eine andere mögliche Antwort besteht darin, eine Welt zu schaffen, in der es möglich ist, dass sie es selbst tun können. Wenn Ihre Antwort eher die erste war, dann müssen Sie sich eindeutig mit den Konzepten des sozialen Modells der Behinderung vertraut machen.

Bilder

Lassen Sie uns den Schwerpunkt auf die Bilder legen. Damit das Bildschirmlesegerät ein Bild vorlesen kann, muss es wissen, worum es sich bei dem Bild handelt, und es dann dem Benutzer in einer sinnvollen Weise präsentieren. Nehmen wir zum Beispiel das Bild einer Familie, die mit ihren Zwillings-Huskies spielt (Go Huskies!). Als Nicht-Bildschirmleser ist es einfach herauszufinden, was auf dem Bild vor sich geht – nicht nur, was im Vordergrund passiert, sondern auch im Hintergrund. Jialin, eines der Familienmitglieder, trägt zum Beispiel ein T-Shirt mit der Aufschrift „100% Mensch“. Kann das Bildschirmlesegerät die Szene vollständig extrahieren? Zu diesem Zweck sind die Bildschirmlesegeräte darauf angewiesen, dass die Entwickler oder Inhaltsautoren einen alternativen Text für die Bilder mit Hilfe des „alt“-Attributs bereitstellen, das 1995 als Teil von HTML 2.0 eingeführt wurde (wenn Sie nicht wissen, was ein alt-Attribut ist oder welche Bedeutung es hat, bietet dieser Artikel einen guten Überblick über das alt-Attribut). Das HTML-Element img sieht dann wie folgt aus:

<img src="image1.jpg" alt="This is an image of two Huskies" />

Das Bildschirmlesegerät liest nun „Bild, Dies ist ein Bild von zwei Huskies“.

Das alt-Attribut leer zu lassen oder einen bedeutungslosen Text wie „Bild 1“ anzugeben, ist, wie Sie sich vorstellen können, nicht sehr hilfreich. Selbst mit dem Alternativtext „This is an image of two Huskies“ (Dies ist ein Bild von zwei Huskies) kommt die übermittelte Information nicht annähernd an das heran, was jemand, der kein Bildschirmlesegerät verwendet, extrahieren könnte, z. B. den Text auf dem T-Shirt von Jialin. Außerdem kündigt der Screenreader den Inhalt bereits als „Bild“ oder „Grafik“ an, so dass „Dies ist ein Bild“ überflüssiger Text ist. All dies setzt voraus, dass das Bild von einem Nutzer gepostet wird, der Zugang zu dem Code hat, um den alternativen Text einzugeben.

Aber was ist mit Orten wie Social-Media-Plattformen, wo die Bilder von Nutzern hochgeladen werden, die überhaupt keinen Zugang zu dem Code haben. Facebook hat 2016, mehr als ein Jahrzehnt nach seiner Gründung, damit begonnen, künstliche Intelligenz einzusetzen, um automatisch generierten Alternativtext zu Bildern hinzuzufügen, und den Nutzern erlaubt, diesen Text bei Bedarf zu bearbeiten. Instagram folgte und implementierte diese Funktion letztes Jahr, 8 Jahre nach seiner Einführung. Die Fragen sind jedoch nach wie vor dieselben: Wie viele Informationen sollte ein alternativer Text enthalten? Ist eine einfache, übergeordnete Beschreibung ausreichend? Gehen wir bei der Entscheidung darüber, was wir den Nutzern von Bildschirmlesegeräten präsentieren, davon aus, was die Nutzer von Bildschirmlesegeräten in einem Bild suchen, und verallgemeinern diese Annahme? Wenn ein Bild mehr sagt als tausend Worte, sollte dann nicht auch ein alternativer Text tausend Worte sagen?

GIFs und animierte Bilder

Leo hat ein ausgeprägtes Meme-Verständnis und ist Experte darin, für jede Gelegenheit ein Katzen-GIF zu finden. Wenn man bedenkt, dass ein GIF durch die Kombination verschiedener Bilder entsteht, so dass das Endergebnis den Eindruck eines sehr kurzen Videos vermittelt, haben wir dann die gleichen Probleme wie bei den Bildern? Schlimmer noch. Als Entwickler können (und sollten) Sie sicherlich einen alternativen Text hinzufügen, ähnlich wie wir es bei Bildern tun (GIF ist schließlich eine Bilddatei). Aber auf Social-Media-Plattformen wird ein GIF, je nachdem wie es von der Plattform verarbeitet wird, entweder mit einem img-Element ohne alt-Attribut oder mit einem video-Element dargestellt. Ein video-Element unterstützt das alt-Attribut überhaupt nicht.

Also sind all die GIF-Widgets, die wir verwenden, um animierte Memes auf Facebook und Instagram zu posten, die uns cool machen und alles, für Screenreader-Nutzer unzugänglich. Unser Ziel ist es nicht, Leo davon abzuhalten, GIFs zu posten (denn, miau), sondern dafür zu sorgen, dass solche Inhalte von allen genutzt werden können und nicht nur von einer Teilmenge der Bevölkerung.

Grafiken und Visualisierungen

All das, und wir sind noch nicht einmal zu den „schwierigen Dingen“ gekommen. Wir stellen Diagramme und interaktive Visualisierungen vor. Yisu und Xuhai sind absolute Visualisierungs-Nerds und glauben wie jeder Forscher, dass Grafiken und Visualisierungen extrem wertvoll sind; es gibt kaum eine wissenschaftliche Arbeit ohne mindestens eine Grafik oder Visualisierung. Ein Diagramm vermittelt hochgradig visuelles Wissen und wird in der Regel mit einer der folgenden drei Haupttechniken in eine Webseite eingebettet:

  1. als Bild für statische Inhalte.
  2. als HTML canvas-Element oder SVG-Diagramme (Upgrade von einem Bild auf verschiedene Aspekte) für statische Inhalte.
  3. und/oder als interaktive Visualisierung unter Verwendung von JavaScript-Bibliotheken (die in der Regel HTML canvas oder SVG als zugrundeliegenden Mechanismus verwenden), um dynamische Inhalte bereitzustellen und den Nutzern die Möglichkeit zu geben, mit dem Diagramm zu interagieren.

Bei der Verwendung als Bild gelten die gleichen Überlegungen wie oben beschrieben, mit der zusätzlichen Komplexität der Darstellung wissenschaftlicher Informationen. Was soll der alternative Text aussagen? Soll er einen Überblick über das Diagramm geben? Sollte er statistische Angaben wie Durchschnitt, Mittelwert, Median, Modus usw. enthalten? Und wenn ja, welche? Wie viel Information ist zu wenig und wie viel ist zu viel? Dies sind schwierige Fragen.

Das canvas von HTML selbst wird als Bitmap dargestellt, und ohne die Implementierung eines geeigneten Fallback-Inhalts ergeben sich mehrere Probleme für die Zugänglichkeit. Es gibt jedoch mehrere Techniken, um sie zugänglich zu machen, und sie sind nur eine Google-Suche entfernt. Aber natürlich sind die Entwickler dafür verantwortlich, diese Techniken zu kennen und sie in ihre Arbeit zu implementieren – etwas, das sich im Laufe der Zeit verbessert hat, auf das ich aber nicht unbedingt hoffen würde. Im Gegenteil, SVG wird für barrierefreie Diagramme empfohlen, da nach den W3C-Spezifikationen die untergeordneten Elemente für die Accessibility API verfügbar sind. An der Browserunterstützung wird jedoch noch gearbeitet, und eine vollständig zugängliche SVG-Grafik erfordert Aufwand und zumindest einige grundlegende SVG-Kenntnisse, was wiederum eine Verantwortung ist, die auf die Schultern der Entwickler fällt.

Um einige dieser Bedenken auszuräumen, habe ich evoGraphs erstellt – ein jQuery-Plugin zur Erstellung zugänglicher Grafiken, das den Delegate’s Award für die Accessibility Challenge auf der W4A-Konferenz 2015 gewann. Zugegebenermaßen werden damit nicht alle Fragen zur Komplexität der Darstellung wissenschaftlicher Informationen beantwortet. Daher sind barrierefreie Diagramme ein aktives Forschungsgebiet für mich und andere Forscher.

Als interaktive Visualisierung (wie ChartJS, Google Charts und D3) ist die Darstellung von dynamisch aktualisierten Informationen schwierig. Die meisten Screenreader-Benutzer verwenden kein Zeigegerät (wie Maus, Trackpad usw.), und die meisten Interaktionen beschränken sich entweder nur darauf oder sind praktischer nutzbar, wenn ein Hover über bestimmte Elemente ausgelöst wird. Ohne solche Interaktionen wird der Zweck der interaktiven Visualisierungen für einen Screenreader-Benutzer nebulös, und das Verständnis des Inhalts kann ohne entsprechende Berücksichtigung verwirrender werden.

Zudem ermöglichen viele moderne Grafikbibliotheken eine dynamische Änderung des Inhalts. Die Weitergabe der Informationen an die Bildschirmleser, wenn der Inhalt geändert wird, kann durch die ordnungsgemäße Verwendung von ARIA-Attributen gehandhabt werden, die 2014 zu einer W3C-Empfehlung wurden und ehrlich gesagt ein Geschenk des Himmels sind. Aber wie bei SVGs ist die stabile Browserunterstützung für alle ARIA-Funktionen noch in Arbeit, insbesondere bei der Verwendung innerhalb von SVGs. Um die Möglichkeiten von ARIA voll ausschöpfen zu können, ist eine entsprechende Entwicklerschulung erforderlich.

Der Weg in die Zukunft

Seit Tim Berners-Lee das World Wide Web schuf, hat sich die Technologie drastisch weiterentwickelt. Leider kann man das Gleiche nicht über die Zugänglichkeit dieser Technologien sagen. Wenn eine bestimmte Technologie für Menschen mit Behinderungen zugänglich gemacht wird, ist die Welt bereits zu fortschrittlicheren Technologien übergegangen. Die Aufholjagd endet also nie. Und das wird es auch nicht – es sei denn, die Zugänglichkeit wird zur grundlegenden Überlegung bei der Entwicklung neuerer Technologien.

Aber es ist noch nicht alle Hoffnung verloren. Wir haben und machen weiterhin große Fortschritte auf dem Gebiet der Barrierefreiheit im Internet, sowohl in der akademischen Forschung als auch bei industriellen Produkten. Studenten und neuen Entwicklern werden die Konzepte der Barrierefreiheit und Techniken zur Verbesserung der Zugänglichkeit des Internets beigebracht. Für die Zukunft stelle ich mir vor, einen Schritt zurückzutreten und darüber nachzudenken, wie die Software an die Bedürfnisse der Benutzer angepasst werden kann, anstatt zu erwarten, dass sich die Benutzer an die Software anpassen. Gehen wir zum Beispiel weiterhin davon aus, welche Informationen ein Screenreader-Benutzer aus einem Bild extrahieren möchte, oder entwickeln wir Tools, die mehr über den Benutzer lernen und die Informationen so darstellen, wie der Benutzer sie am liebsten wahrnimmt? Meiner Meinung nach führt uns die Zukunft weg von der Verallgemeinerung und hin zur Personalisierung – ein World Wide Web, das wirklich benutzerorientiert ist.

  1. „Vision Impairment and Blindness.“ World Health Organization, World Health Organization, https://www.who.int/news-room/fact-sheets/detail/blindness-and-visual-impairment. Accessed 20 Oct. 2019.
  2. „A Picture’s Worth: D. H. Hepting, Ph.D.“ A Picture’s Worth | D. H. Hepting, Ph.D., http://www2.cs.uregina.ca/~hepting/projects/pictures-worth.
  3. HTML 2.0 Materials, https://www.w3.org/MarkUp/html-spec.
  4. Sharif, Ather, and Babak Forouraghi. „evoGraphs-A jQuery plugin to create web-accessible graphs.“ 2018 15th IEEE Annual Consumer Communications & Networking Conference (CCNC). IEEE, 2018.
  5. „WAI-ARIA Overview.“ Web Accessibility Initiative (WAI), https://www.w3.org/WAI/standards-guidelines/aria.

Schreibe einen Kommentar