A-Tag’16: Der Treffpunkt für Internet-Accessibility

Am Freitag, den 16. September 2016, fand der alljährliche A-TAG im Tech Gate Vienna statt. Der Ausblick aus der Tech Lounge im 19. Stock ließ erahnen, dass Großes auf uns zukommt. Nach der Einleitung von Klaus Höckner und Jo Spelbrink zur Organisation des Tages folgte die Opening Note von Dr. Erwin Buchinger von der Bundesbehindertenanwaltschaft in Form einer Videobotschaft. Meral Akin-Hecke von Digital Champion Austria musste aufgrund einer Erkrankung leider absagen.

Fünf Ansätze für Online Redakteure zur Barrierefreiheit lieferte Siteimprove Customer Success Manager Felix Petsovits in seinem Talk:

  • Überschriften müssen immer als h1 bis h6 definiert werden,
  • Seitentitel sind einzubauen,
  • Textlinks und Buttons sind mit aussagekräftigen Bezeichnungen zu versehen und
  • es soll semantisches Markup verwendet werden.

Bei den Alternativtexten für Bilder unterscheidet er in drei Kategorien: funktionale, informative und dekorative Bilder. Funktionale Bilder sollen ihre Funktion im Alternativtext beschreiben (ein Lupe-Icon sollte beispielsweise den Alternativtext “Suche” besitzen). Bei informativen Bildern soll der Alternativtext beschreiben, was in dem Bild zu sehen ist und bei dekorativen Bildern wiederum soll ein leeres alt-Attribut gesetzt werden. Susanne Buchner-Sabathy gab hierzu an, dass sie Elemente ohne alt-Attribut bevorzugt, damit der Screenreader sie gänzlich überspringt.

Nach einer kurzen Kaffeepause klärte Markus Erle von axes4.com über den Stand der PDF-Barrierefreiheit auf den Internetseiten der österreichischen Bundesministerien auf. Die Studie, die mit Hilfe des Matterhornprotokolls umgesetzt wurde, zeigte große Unterschiede in den verschiedenen Ministerien auf. 2.212 PDF Dokumente wurden analysiert. 56,1% wiesen Tags auf (und 43,9% nicht) – wobei das beste Ministerium in dieser Kategorie 89,2% der Dokumente mit Tags versehen hat und das schlechteste lediglich 9,4%. Drei Ministerien schnitten mit der Kennzahl 87,50% am besten ab. Zwei Drittel der Ministerien wiesen allerdings weniger als 80% Prozent auf.

Markus Erle wählte den Vergleich mit einer Brücke, um zu veranschaulichen, wie viel 20% sein können, wenn es sich um eine Barriere (in diesem Fall: ein Spalt in der Brücke) handelt. Die häufigsten Probleme bei den barrierefreien PDFs lagen bei den Annotations, dem Dokumenttitel, dem PDF/UA Identifier, der BBox bei den Bildern und bei nicht getaggtem oder fälschlicherweise als Artefakt markiertem Inhalt. Was nicht geprüft wurde, sind Formulare und ob es statt dem PDF einen äquivalenten HTML Inhalt gibt.

Gleich im Anschluss erklärte dann Michael Holzer passenderweise, wie der Umstieg auf barrierefreie PDFs in einem Ministerium vonstatten ging. Gewählt wurde das Beispiel des sozialministerium.at, das in der vorangegangenen Studie tatsächlich am ersten Rang zu finden war. Seit 2013 erstellt das Ministerium barrierefreie PDFs aus InDesign. Die neue Herausforderung bestand jetzt darin, ebensolche aus Microsoft Word exportieren zu können, damit alle erstellten Dokumente frei von Barrieren sind.

Dafür ließ das Ministerium eine Word-Vorlage von axes4.com erstellen, die von allen Nutzern mit Basis-Programmkentnissen und einer Anleitung verwendet werden kann. Des Weiteren empfahl er das Dokument Leitfaden Word 2010 barrierefrei sowie MadeToTag für InDesign Tutorials. Zur Überprüfung eigne sich am besten der Accessibility Checker PAC 2 und um valides HTML Markup direkt aus barrierefreien PDFs zu erstellen, eignet sich Callas Software PDFgoHTML sehr gut.

Danach klärte Dr. Gregor Eibl über die Richtlinie der EU über den barrierefreien Zugang zu den Websites und mobilen Anwendungen öffentlicher Stellen auf. Das Ziel der Richtlinie ist die Schaffung eines harmonisierten Marktes. Sie soll sicherstellen, dass die Websites und mobilen Anwendungen öffentlicher Stellen auf der Grundlage gemeinsamer Anforderungen besser zugänglich gemacht werden. Es gibt einige Fälle, die Ausnahmen darstellen, wie beispielsweise Archive, Extra- und Intranets, Schulen und Kindergärten (außer bei Verwaltungsfunktion) oder wenn die Umstellung eine unverhältnismäßige Belastung bedeutet. Die Grundsätze der Richtlinie sind dieselben wie die des WCAGs: Wahrnehmbarkeit, Bedienbarkeit, Verständlichkeit und Robustheit.

Nach einem reichhaltigem Mittagsmenü mit einer Auswahl aus Fisch, Fleisch, vegetarischem und veganem Angebot ging es gestärkt weiter mit Michaels Fembecks Resumee und Ausblick des Zero Projects. Das Zero Project ist eine Initiative der Essl Foundation und widmet sich den Best bzw. Innovative Practices in Bezug auf Barrierefreiheit, Beschäftigung, Selbstbestimmtes Leben, Bildung, Medien und Politik und verleiht auch einen Award, um deren Vorbildwirkung ins Rampenlicht zu rücken. Vorgestellt wurden Projekte aus der ganzen Welt, die man sich auf ihrer Website im Detail ansehen kann.

Anschließend gaben Maria Putzhuber und Wolfram Huber einen Einblick in den Accessibility Evaluierungsprozess. Zuerst wird das Frontend mittels automatischen Tools wie wave.webaim.org/,checkers.eiii.euvalidator.w3.org und Mozilla HTML Valiador Addon gestestet. Draufhin folgt eine Experten-Evaluierung mithilfe der Web Developer Toolbar (Firefox, Chrome, IE) sowie der Web Accessibility Toolbar und ein Accessible-Usertest durch beeinträchtigte Menschen. Zum Abschluss wird ein Prüfbericht nach WCAG erstellt. Die häufigsten Accessibility Fehler treten dabei in drei Kategorien auf: Fehlender Textersatz für visuelle Inhalte (keine Alt-Tags, nicht ausreichende oder redundante Info), Mängel in der Tastaturbedienbarkeit (Fokus Styling, Overlays nicht ansteuerbar, unübliche Lösungen) und Semantik (Überschriften, Seitenstruktur).

Yehya Mohammed vom Fraunhofer Institut sprach in seinem Talk über das zugängliche Web der Dinge. Das Web der Dinge (Web of Things – WoT) ist ein Begriff, der Protokolle, Standards, Softwareansätze, Architekturstile und Programmiermuster beschreibt. Das WoT möchte Objekte der realen Welt in das World Wide Web integrieren.

Dabei wird zwischen drei verschiedene Kategorien unterschieden:

  • Tracker, die eine ID verfolgen
  • Sensoren, die Daten erzeugen
  • Aktuatoren, die Dinge aus der Ferne steuern.

Das Ziel des WoT ist es, die Welt zu verbinden. Vor allem Bewässerungs-, Gesundheits- und die Sicherheitssektoren könnten davon profitieren. Das Problem hinsichtlich der Accessibility besteht beim WoT darin, dass es zuviele verschiedene Protokolle gibt. So wie http die Lösung für das Web ist, so soll dies auch beim Web der Dinge vereinheitlicht werden. Die auf JSON basierende “Things description language” (TDL) kann beispielsweise als Pendant zu HTML im Web gesehen werden.

Jo Spelbrink, Web Developer und Accessibility Ansprechpartner bei Zensations, machte in seinem Vortrag zum Thema Accessible Storytelling, der von ihm in Gebärdensprache gegeben und simultan übersetzt wurde, darauf aufmerksam, dass es im Marketing darum gehen sollte, die Zielgruppen besser zu verstehen und sämtliche Maßnahmen ganzheitlich zu betrachten. Gemeint ist damit nicht die Einbindung von Randgruppen, sondern die Berücksichtigung der Individualität der Menschen und das Bewusstwerden der Heterogenität der Dialoggruppen. Berücksichtigt man im Marketing den Aspekt der Accessibility, so ist durch das bessere Kundenverständnis auch eine bessere und intensivere Kundenbindung möglich. Eine positive User Experience wird damit in den Mittelpunkt gestellt. GARI, die Global Accessibility Reporting Initiative, hat einen sehr gute Zusammenfassung des Talks verfasst, siehe blog.mobileaccessibility.info/2016/09/accessible-story-telling.html

Da sehende Menschen nur schwer nachvollziehen können, wie sich Webseiten für Menschen präsentieren, die ein Screenreader-Programm nutzen müssen, hat Susanne Buchner-Sabathy einen Screenreader-Emulator namens “Just Like Me” entwickelt. Dieser ist online frei verfügbar unter sabathy.at/jlm und kann von jedem ohne Vorkenntnisse und Übung verwendet werden – anders als kostenlose Screenreader bzw. Demo-Versionen. Zu Beginn ihrer Präsentation hat sie anhand des Beispiels der Suche nach dem Schlüsselbund in einer Wohnung eindrucksvoll beschrieben, wie mühsam es sein kann, einfache Dinge auf einer Website zu finden, wenn diese keine sinnvolle semantische Struktur aufweist. Werden zusammengehörige Bereiche nicht hierarchisch als solche gekennzeichnet, so ist das vergleichbar damit, wie wenn man im echten Leben jede Seite eines Buches in einem Bücherregal durchblättern müsste, weil sich überall der Schlüsselbund verstecken könnte.

Auch Christian Zehetgruber von TSB Transdanubia widmete sich in seinem Vortrag den Blinden – und zwar mit der ersten Brille, die vorlesen kann: die OrCam MyEye. Sie soll Blinden und Sehbeeinträchtigten den Alltag erleichtern, indem sie – gesteuert durch Handgesten – Texte in der unmittelbaren Umgebung (Straßen-, Hausnummer- und Klingelschilder, aber auch Zeitungen, Bücher etc.) vorliest. Sie gibt auch Hinweise darauf, ob der gescannte Text noch an einer anderen Stelle weitergehen könnte. Um die Orientierung nicht zu beeinträchtigen, befindet sich der Lautsprecher in der Nähe der Wange und nicht direkt im Ohr. Die Brille kann außerdem Auskunft darüber geben, wie viele Menschen vor einem stehen und überdies hinaus bietet sie die Möglichkeit bekannte Gesichter mit Namen zu speichern. Fortan werden diese Personen dann aus einer Distanz bis ca. acht Meter erkannt. Dasselbe Prinzip kann man natürlich auch für Gegenstände (z.B bestimmte Verpackungen) oder Geldscheine anwenden. Die größte Limitation ist zur Zeit, dass die Brille nur bei ausreichendem Licht funktioniert. Texte, die auf dem Kopf stehen, können nicht gelesen werden, die Brille gibt aber darüber Auskunft, dass das Bild gedreht werden muss. Bei schlechtem Kontrast und sehr großen Serifen kann es auch passieren, dass der Text als unleserlich eingestuft wird. Die smarte Brille ist aktuell in den Sprachen Deutsch, Englisch, Französisch und Spanisch geplant und um € 4.290,- erhältlich.

In ihrem Vortrag Komplexe Diagramme in PDF-Dateien – Wege zur barrierefreie(re)n Datenvermittlung stellte Kerstin Probiesch konkrete Lösungsmöglichkeiten für den Umgang mit komplexen Grafiken in PDF-Dateien vor.

  • Bei einfachen Diagrammen reicht ein Alternativtext, bei komplexeren ist dieser allerdings zu lang.
  • Eine einfache Möglichkeit ist, die Daten als normalen Text im Fließtext unterzubringen.
  • Gerade bei komplexen Diagrammen ist es ratsam, die Datentabelle unterhalb des Diagramms zur Verfügung zu stellen, da diese die Ansteuerung bestimmter Werte möglich macht.
  • Sollte es nicht gewünscht sein, dass sie unterhalb platziert wird, kann sie auch als Appendix oder als Anlage an die PDF Datei angefügt werden. Sollte eine Anlage gewählt werden, so sollte auf diese entweder direkt verlinkt werden oder im Alternativtext genau angegeben werden, wo und unter welchem (aussagekräftigen) Namen sie zu finden ist.
  • Eine komplexere, aber oft praktische Variante, ist, die Datentabelle im Tag Baum zu hinterlegen.

In Zukunft wird diese Problematik womöglich durch SVG (Scalable Vector Graphics) behoben werden (siehe unser Blogbeitrag zu diesem Thema.

Christian Klim informierte im Anschluss über das Smart Banking der Bank Austria. Das Smart Banking stellt ein erweitertes Online Banking dar und bietet längere Öffnungszeiten als die Bankfilialen. Mittels Videokonferenz kann gemeinsam mit einem Bankberater ein Beratungsgespräch durchgeführt werden. Durch die Bildschirmteilung können auch gemeinsam Folder durchgegangen werden. Zusätzlich ist auch ein Gespräch im Beisein eines Gebärdendolmetschers von Mo-Fr von 9-15 Uhr mit Voranmeldung möglich. Dieser Service ist kostenlos und ebenso sicher wie das Online Banking.

In seiner Closing Note widmete sich Chris Heilmann der Barrierefreiheit neuer Technologien – denn da ist sie bereits inklusive. Die digitale, physikalische und biologische Symbiose aus Mensch und Maschine wird als die vierte industrielle Revolution bezeichnet. Und diese Symbiose ist bereits voll im Gange. Die von Microsoft entwickelte Augmented Reality Brille HoloLens lässt beispielsweise Medizinern für Weiterbildungszwecke virtuell Gehirne zerlegen.

Seit 2013 gibt es bereits mehr Smartphones als PCs, weil es in vielen Ländern der Welt nur eine schlechte Verkabelung und nur kleine Wohnungen gibt, aber ein Smartphone von jedem genutzt werden kann. Dadurch verändert sich auch die Bedienung von elektronischen Geräten. Früher gab es nur Keyboard und Maus, heute kann man hingegen auch die Kamera, das Mikrofon oder Bewegungen für die Eingabe nutzen. Ebenso bei der Ausgabe gibt es heute nicht nur Texte, Bilder, Klänge, Animation und Video, sondern auch Sprachausgaben, Vibrationen uvm. Und die Steuerung kann nicht nur durch Klicken und Tippen erfolgen, sondern auch durch Tasten, Bewegen, sich Annähern, Anfragen oder das Zeigen von Gefühlen. An letzterem arbeitet Chris Heilmann selbst bei Microsoft: Welche Gemütsbewegung hat ein Mensch in einem Video? Dies zu erkennen kann beispielsweise dabei helfen, zu erkennen, wann ein Fahrer eines Autos müde wird, um ihm in diesem kritischen Moment eine Hilfestellung anbieten zu können. Diese Art der Erkennung wird schon von vielen Medien verwendet, beispielsweise bei den Alternativtexten für Bilder von Facebook. Microsoft demonstriert dies auf der Seite captionbot.ai, wo Bilder in sinnvollen Sätzen beschrieben werden.

Genauso gut funktionieren bereits Live Übersetzungen von Telefonanrufen, zum Beispiel von arabisch auf schwedisch. In 14 – 15 Sprachen kann derzeit mit dieser Methode übersetzt werden. Es gibt auch einige Anbieter von 3D Avataren, die eine Live Übersetzung von Text oder Ton zu Gebärdensprache vornehmen können. Ein Beispiel nannte er ebenso aus Schweden, wo eine Kamera in Verwendung ist, welche die Augenbewegung trackt, um eine Lernbehinderung zu erkennen und den angezeigten Text daraufhin optimal anzuzeigen.

Auch x.ai versucht, das Leben der Nutzer zu erleichtern. Wenn beispielsweise drei Leute in E-Mail Kontakt stehen, dann kann der Personal Assistant einfach mitgesandt werden, dieser sieht dann in die Kalender der Teilnehmer ein und legt fest, wann diese Zeit haben, um miteinander zu sprechen. Diese Art der virtuelle Assistenten, die auf künstlicher Intelligenz und lernenden Maschinen basieren, gibt es von unterschiedlichen Anbietern:

  • Siri (Apple)
  • Google Now (Google)
  • Cortana (Microsoft)
  • Alexa (Amazon)
  • M (Facebook)

Messaging und das Social Web nehmen schon heute den Großteil des Internets ein. Die Zukunft liegt in Chatsystemen, die es ermöglichen, Arzttermine, Restaurants und dergleichen direkt in Form einer Kommunikation zu suchen ohne Websites besuchen zu müssen.

Chris Heilmann stellte außerdem das Microsoft Inclusive Design Toolkit vor. Dort werden Menschen mit Behinderung als Supermenschen gesehen, da sie Probleme haben, die andere Menschen auch kennen, denen sie aber weniger bewusst sind: “Behinderung ist kein Problem, sondern die Blaupause der Interaktion von Mensch und Maschine.” Bei der Interface-Gestaltung ist es zum Beispiel immer von Vorteil, wenn man Beeinträchtigungen miteinbezieht. Warum?

  • Weil die Touchfunktion nicht nur für Einarmige schwer zu bedienen sein kann (26.000), sondern auch für jene, die sich aktuell einen Arm gebrochen haben (13 Mio.) oder ein Kind im Arm tragen (8 Mio.). Insgesamt würden somit also 21 Mio. von einer einarmigen Touchsteuerung profitieren.
  • Ähnlich verhält es sich mit den anderen Sinnen: Nicht nur Blinde haben Probleme mit dem Sehen, auch alte Menschen oder Autofahrer sollten nicht nur visuelle Ausgaben zur Verfügung haben.
  • Genauso sind auch nicht nur Gehörlose im Hören beeinträchtigt, sondern auch jene, die sich eine Infektion im Ohr eingefangen haben oder als Barkeeper in einem lauten Lokal arbeiten.
  • Und eine Spracherkennung ist nicht nur von stummen Menschen nicht verwendbar, sondern auch Menschen mit einer starken Erkältung oder einem heftigen Akzent können sie nicht oder nur eingeschränkt einsetzen.

All diese Beispiele zeigen, dass der Markt menschliche Probleme lösen will und neue Technologien uns dabei helfen können.

Abschließen möchte ich meinen Bericht über den ATAG mit einem Zitat von Chris Heilmann, das meiner Meinung nach sehr gut zum Thema Accessibility (und den damit verbundenen Möglichkeiten) passt: “Menschen, die etwas machen wollen, finden Wege. Menschen, die etwas nicht machen wollen, finden Gründe.” Versuchen wir, die Menschen zu sein, die Wege zu barrierefreier Kommunikation finden ohne uns von den Gründen anderer beirren zu lassen.