Et billede siger tusind ord, men ikke rigtig

En bruger af en skærmlæser bruger VoiceOver til at læse artiklen i New York Times med titlen

Zoey elsker at surfe på internettet. De nyder at fortabe sig i det sammenkoblede net fuld af information og udrede stykker af viden, der er bogmærkeværdige. Men de nyder ikke at skimme gennem store tekstmængder. De foretrækker billeder. En masse af dem. De gennemgår deres crush’s billeder på Facebook, før de overhovedet overvejer at læse deres bio. Deres længsel efter memes og visualiseringer er uovertruffen for nogen på denne planet, og deres Instagram-stories afspejler det. De er bare, du ved, stærkt forbundet med deres visuelle-lærer-natur. Og det er der ikke noget galt med.

Men verden har ikke kun Zoey i sig. Der er Trung-Anh, der er Sewon, der er Nayon, der er Venkatesh, der er Zeqiu, der er Dinko, der er Sade, der er Ivan, og der er Mohammed. Ifølge WHO har mindst 29 % (2,2 mia.) af verdens befolkning (7,7 mia.) en eller anden form for synshandicap, hvilket svarer til mindst tre personer på ovennævnte liste. Hmm, så, øhm … nu hvor vi ved, at 29 % af befolkningen måske ikke er i stand til at se visuelt indhold, hvad gør vi så? Holder vi stadig fast ved den bogstavelige fortolkning af Fred Barnards citat “Et billede er mere værd end tusind ord”? Det tør jeg godt sige, at jeg ikke gør. Ikke altid.

Et ofte nysgerrigt spørgsmål at stille er – hvordan bruger mennesker med synshandicap en computer? Først tror jeg, at det er vigtigt at forstå, at det at have et synshandicap ikke er et synonym for at være blind. Så hvis du ser en person, der bruger en hvid stok, ville det være forkert at antage, at vedkommende er helt blind. Når det drejer sig om at bruge en computer, kan de, afhængigt af deres synsniveau, bruge skærmlæsere til at læse indholdet på skærmen. Nogle populære skærmlæsere omfatter JAWS, NVDA (gratis og open source) og VoiceOver (indbygget i Apples enheder).

The State of the World

Great! Så vi har altså en måde, hvorpå brugere af skærmlæsere kan interagere med deres computere eller mobile enheder. Men hvordan kan en skærmlæser læse sine crush-fotos? Eller memes? Eller grafer/visualiseringer? Et muligt svar her er, at vi bør gøre medicinske fremskridt for at helbrede deres syn eller noget i retning af, at de har en personlig plejer/ven/familie, der kan forklare dem, hvad der står på skærmen. Et andet muligt svar er at skabe en verden, hvor det er muligt for dem at gøre det selv. Hvis dit svar lå tættere på det første, har du tydeligvis brug for at uddanne dig og gøre dig bekendt med begreberne i den sociale model for handicap.

Billeder

Lad os sætte fokus på billederne. For at skærmlæseren kan læse et billede op, skal den vide, hvad billedet handler om, og derefter præsentere det for brugeren på en meningsfuld måde. Lad os f.eks. overveje et billede af en familie, der leger med deres tvilling-Huskies (Go Huskies!). Som bruger, der ikke er skærmlæser, er det let at regne ud, hvad der foregår på billedet – ikke kun hvad der sker i forgrunden, men også i baggrunden. F.eks. har Jialin, et af familiemedlemmerne, en T-shirt på, hvor der står “100 % menneske”. Kan skærmlæseren helt og holdent uddrage scenen? For at gøre dette er skærmlæserne afhængige af, at udviklerne eller indholdsforfatterne leverer en alternativ tekst til billederne ved hjælp af “alt”-attributten, som blev introduceret for offentligheden i 1995 som en del af HTML 2.0 (hvis du ikke er bekendt med, hvad en alt-attribut er, eller hvilken betydning den har, giver denne artikel en god oversigt over alt-attributten). HTML-elementet img ser derefter således ud:

<img src="image1.jpg" alt="This is an image of two Huskies" />

Dermed vil skærmlæseren nu læse “Image, This is an image of two Huskies”.

Det er, som du kan forestille dig, ikke særlig nyttigt at lade alt-attributten være tom eller at levere meningsløs tekst som “Image 1”. Selv med den alternative tekst “Dette er et billede af to Huskies” er de oplysninger, der videregives, ikke i nærheden af, hvad en person, der ikke bruger en skærmlæser, ville være i stand til at uddrage, f.eks. teksten på Jialins T-shirt. Desuden angiver skærmlæseren allerede indholdet som et “billede” eller en “grafik”, hvilket gør “Dette er et billede” til overflødig tekst. Alt dette er med den antagelse, at billedet er lagt op af en bruger, der har adgang til koden til at indtaste den alternative tekst.

Men hvad med steder som sociale medieplatforme, hvor billederne er uploadet af brugere, der slet ikke har adgang til koden. Facebook begyndte i 2016, mere end et årti efter sin lancering, at anvende kunstig intelligens til at tilføje automatisk genereret alternativ tekst til billeder og gav brugerne mulighed for at redigere denne tekst, hvis det var nødvendigt. Instagram fulgte efter og implementerede denne funktion sidste år, 8 år efter sin lancering. Spørgsmålene er dog stadig de samme – Hvor mange oplysninger skal en alternativ tekst indeholde? Er en grundlæggende beskrivelse på et højere niveau nok? Når vi beslutter, hvad der skal præsenteres for skærmlæserbrugerne, går vi så ud fra og generaliserer, hvad skærmlæserbrugerne leder efter i billedet? Hvis et billede siger mere end tusind ord, bør en alternativ tekst så ikke metaforisk set sige mere end tusind ord?

GIF’er og animerede billeder

Leo har et stærkt meme-spil og er ekspert i at finde en GIF med en kat til enhver lejlighed. I betragtning af, at en GIF skabes ved at kombinere flere forskellige billeder på en sådan måde, at det endelige resultat giver indtryk af en meget kort video, står vi så over for de samme problemer, som vi står over for med billederne? Værre. Som udvikler kan du helt sikkert (og bør) tilføje en alternativ tekst på samme måde, som vi gør det for billeder (GIF er trods alt en billedfil). Men på sociale medieplatforme bliver en GIF, afhængigt af hvordan den behandles af platformen, enten gengivet ved hjælp af et img-element uden en alt-attribut eller ved hjælp af et video-element. Et video-element understøtter slet ikke alt-attributten.

Så alle de GIF-widgets, som vi har brugt til at sende animerede memes på Facebook og Instagram, dem, der gør os cool og det hele, er utilgængelige for skærmlæserbrugere. Her er vores mål ikke at forhindre Leo i at lægge GIF’er ud (for, miav), men at sikre, at sådant indhold kan nydes af alle og ikke kun af en delmængde af befolkningen.

Grafikker og visualiseringer

Alt det, og vi er ikke engang nået til de “svære ting” endnu. Vi introducerer grafer og interaktive visualiseringer. Yisu og Xuhai er totale visualiseringsnørder og mener ligesom enhver forsker, at grafer og visualiseringer er ekstremt værdifulde; der findes sjældent en akademisk artikel uden mindst én graf eller visualisering. En graf formidler meget visuel viden og er normalt indlejret i en webside ved hjælp af en af tre hovedteknikker:

  1. som et billede for statisk indhold.
  2. som et HTML canvas-element eller SVG-diagrammer (opgradering fra et billede på forskellige aspekter) for statisk indhold.
  3. og/eller som en interaktiv visualisering ved hjælp af JavaScript-biblioteker (der normalt anvender HTML canvas eller SVG som en underliggende mekanisme) til at servere dynamisk indhold og give brugerne mulighed for at interagere med grafen.

Når den anvendes som et billede, gælder de samme overvejelser, som vi har diskuteret ovenfor, med den ekstra kompleksitet, der er forbundet med præsentation af videnskabelige oplysninger. Hvad skal der stå i den alternative tekst? Skal den give et overblik over grafen? Skal den indeholde statistik såsom gennemsnit, gennemsnit, median, median, modus osv. Og i så fald, hvilke? Hvor meget information er for lidt, og hvor meget er for meget? Det er svære spørgsmål.

En HTML’s canvas er selv eksponeret som et bitmap, og uden implementering af korrekt fallback-indhold giver flere udfordringer med hensyn til tilgængelighed. Der findes dog flere teknikker til at gøre dem tilgængelige, og de er kun en Google-søgning væk. Men det er selvfølgelig udviklerne, der er ansvarlige for at kende disse teknikker og implementere dem i deres arbejde – noget jeg har set blive bedre med tiden, men som jeg ikke ville holde vejret på. Derimod tilskyndes SVG til tilgængelige diagrammer, da underelementerne i henhold til W3C-specifikationerne er tilgængelige for Accessibility API’et. Der arbejdes dog stadig på browserunderstøttelsen, og en fuldt tilgængelig SVG-graf kræver en indsats og i det mindste en vis grundlæggende viden om SVG, hvilket endnu en gang er et ansvar, der falder på udviklernes skuldre.

For at løse nogle af disse problemer skabte jeg evoGraphs – et jQuery-plugin til at skabe tilgængelige grafer, som vandt Delegate’s Award for Accessibility Challenge ved W4A-konferencen i 2015. Indrømmet, det løser ikke alle de fremhævede spørgsmål vedrørende kompleksiteten af præsentationen af videnskabelige oplysninger. Derfor er tilgængelige grafer et aktivt udforskningsområde for mig og andre forskere.

Som en interaktiv visualisering (såsom ChartJS, Google Charts og D3) er repræsentationen af dynamisk opdaterede oplysninger vanskelig. De fleste skærmlæserbrugere bruger ikke en pegeredskab (såsom mus, Trackpad osv.), og de fleste interaktioner er enten udelukkende begrænset til eller er mere praktisk anvendelige, når der udløses en hover over visse elementer. Uden sådanne interaktioner bliver formålet med de interaktive visualiseringer for en skærmlæserbruger uklart, og man kan argumentere for, at uden de rette overvejelser kan forståelsen af indholdet blive mere forvirrende.

Dertil kommer, at mange moderne grafbiblioteker giver mulighed for dynamisk ændring af indholdet. Videregivelse af oplysninger til skærmlæserne, når indholdet ændres, kan håndteres ved korrekt brug af ARIA-attributter, som blev en W3C-anbefaling i 2014 og ærligt talt er en Guds gave. Men ligesom med SVG’er er stabil browserunderstøttelse af alle ARIA-funktioner stadig et stykke arbejde i gang, især når de anvendes i SVG’er. Der er stadig behov for ordentlig uddannelse af udviklere for fuldt ud at udnytte, hvad ARIA har at tilbyde.

Vejsen fremad

Fra dengang Tim Berners-Lee skabte World Wide Web til i dag er teknologien steget drastisk. Desværre kan man ikke sige det samme om tilgængeligheden af disse teknologier. Når en bestemt teknologi er gjort tilgængelig for handicappede, er verden allerede gået videre til mere avancerede teknologier. Så indhentningsspillet er aldrig slut. Og det vil det heller ikke – medmindre tilgængelighed bliver det grundlæggende hensyn i forbindelse med udviklingen af nyere teknologier.

Men alt håb er ikke udeblevet. Vi har gjort og fortsætter med at gøre store fremskridt inden for webtilgængelighed, både i akademisk forskning og i industriprodukter. Studerende og nye udviklere bliver undervist i begreberne tilgængelighed og teknikker til at gøre internettet mere tilgængeligt. Jeg forestiller mig, at vi fremover skal tage et skridt tilbage og tænke på at tilpasse softwaren til brugernes behov i stedet for at forvente, at brugerne tilpasser sig softwaren. Skal vi f.eks. fortsat gå ud fra, hvilke oplysninger en bruger af en skærmlæser ønsker at udtrække af et billede, eller skal vi udvikle værktøjer, der lærer mere om brugeren og præsenterer oplysninger, som brugeren foretrækker at opfatte? For mig at se bevæger fremtiden os væk fra generalisering og tættere på personalisering – et World Wide Web, der virkelig er brugercentreret.

  1. “Vision Impairment and Blindness.” Verdenssundhedsorganisationen, Verdenssundhedsorganisationen, https://www.who.int/news-room/fact-sheets/detail/blindness-and-visual-impairment. Tilgået 20. okt. 2019.
  2. “A Picture’s Worth: D. H. Hepting, Ph.D.” A Picture’s Worth | D. H. Hepting, Ph.D., .
  3. HTML 2.0 Materials, https://www.w3.org/MarkUp/html-spec.
  4. Sharif, Ather, and Babak Forouraghi. “evoGraphs-A jQuery plugin til at skabe webtilgængelige grafer.” 2018 15th IEEE Annual Consumer Communications & Networking Conference (CCNC). IEEE, 2018.
  5. “WAI-ARIA Overview.” Web Accessibility Initiative (WAI), https://www.w3.org/WAI/standards-guidelines/aria.

https://www.w3.org/WAI/standards-guidelines/aria.

Skriv en kommentar