Screenreader

Command-line (Text)Edit

In frühen Betriebssystemen wie MS-DOS, die Befehlszeilenschnittstellen (CLIs) verwendeten, bestand die Bildschirmanzeige aus Zeichen, die direkt auf einen Bildschirmpuffer im Speicher und eine Cursorposition abgebildet wurden. Die Eingabe erfolgte über die Tastatur. Alle diese Informationen könnten daher vom System entweder durch Einhaken des Informationsflusses um das System und Lesen des Bildschirmpuffers oder durch Verwendung einer Standard-Hardware-Ausgangsbuchse und Kommunizieren der Ergebnisse an den Benutzer erhalten werden.

In den 1980er Jahren entwickelte das Forschungszentrum für die Ausbildung von Sehbehinderten (RCEVH) an der Universität Birmingham Screenreader für die BBC Micro und NEC Portable.

GraphicalEdit

Off-Screen modelsEdit

Mit der Einführung von grafischen Benutzeroberflächen (GUIs) wurde die Situation komplizierter. Eine GUI hat Zeichen und Grafiken auf dem Bildschirm an bestimmten Positionen gezeichnet, und daher gibt es keine rein textuelle Darstellung der grafischen Inhalte der Anzeige. Screenreader waren daher gezwungen, neue Low-Level-Techniken einzusetzen, Nachrichten vom Betriebssystem zu sammeln und daraus ein „Off-Screen-Modell“ aufzubauen, eine Darstellung der Anzeige, in der der erforderliche Textinhalt gespeichert ist.

Das Betriebssystem kann beispielsweise Nachrichten senden, um eine Befehlsschaltfläche und deren Beschriftung zu zeichnen. Diese Nachrichten werden abgefangen und zum Erstellen des Off-Screen-Modells verwendet. Der Benutzer kann zwischen den auf dem Bildschirm verfügbaren Steuerelementen (z. B. Schaltflächen) wechseln, und die Beschriftungen und Steuerungsinhalte werden vorgelesen und / oder auf einer aktualisierbaren Braillezeile angezeigt.Screenreader können auch Informationen über Menüs, Steuerelemente und andere visuelle Konstrukte kommunizieren, um blinden Benutzern die Interaktion mit diesen Konstrukten zu ermöglichen. Die Aufrechterhaltung eines Off-Screen-Modells ist jedoch eine erhebliche technische Herausforderung; Das Einhaken der Low-Level-Nachrichten und die Aufrechterhaltung eines genauen Modells sind beides schwierige Aufgaben.

Barrierefreiheit APIsEdit

Betriebssystem- und Anwendungsdesigner haben versucht, diese Probleme anzugehen, indem sie Möglichkeiten für Bildschirmlesegeräte bereitgestellt haben, auf die Anzeigeinhalte zuzugreifen, ohne ein Off-Screen-Modell pflegen zu müssen. Diese beinhalten die Bereitstellung alternativer und zugänglicher Darstellungen dessen, was auf dem Bildschirm angezeigt wird, auf den über eine API zugegriffen wird. Zu den vorhandenen APIs gehören:

  • Android Accessibility Framework
  • Apple Accessibility API
  • AT-SPI
  • IAccessible2
  • Microsoft Active Accessibility (MSAA)
  • Microsoft UI Automation
  • Java Access Bridge

Screenreader können das Betriebssystem oder die Anwendung abfragen, was gerade angezeigt wird, und Updates erhalten, wenn sich die Anzeige ändert. Beispielsweise kann einem Screenreader mitgeteilt werden, dass der aktuelle Fokus auf einer Schaltfläche liegt und die Beschriftung der Schaltfläche dem Benutzer mitgeteilt werden soll. Dieser Ansatz ist für die Entwickler von Bildschirmleseprogrammen erheblich einfacher, schlägt jedoch fehl, wenn Anwendungen nicht der Barrierefreiheits-API entsprechen: Microsoft Word entspricht beispielsweise nicht der MSAA-API, sodass Bildschirmleseprogramme weiterhin ein Off-Screen-Modell für Word beibehalten müssen oder einen anderen Weg finden, um auf den Inhalt zuzugreifen. Ein Ansatz besteht darin, verfügbare Betriebssystemmeldungen und Anwendungsobjektmodelle zu verwenden, um Barrierefreiheits-APIs zu ergänzen.Es kann davon ausgegangen werden, dass Screenreader auf alle Anzeigeinhalte zugreifen können, auf die an sich nicht zugegriffen werden kann. Webbrowser, Textverarbeitungsprogramme, Symbole sowie Fenster- und E-Mail-Programme sind nur einige der Anwendungen, die von Screenreader-Benutzern erfolgreich verwendet werden. Nach Ansicht einiger Benutzer ist die Verwendung eines Screenreaders jedoch erheblich schwieriger als die Verwendung einer GUI, und viele Anwendungen haben spezifische Probleme, die sich aus der Art der Anwendung (z. B. Animationen) oder der Nichteinhaltung der Barrierefreiheitsstandards für die Plattform (z. B. Microsoft Word und Active Accessibility) ergeben.

Programme und Anwendungen zur Selbststimmungbearbeiten

Einige Programme und Anwendungen verfügen neben ihrer Hauptfunktionalität über eine integrierte Voicing-Technologie. Diese Programme werden als selbststimmend bezeichnet und können eine Form der unterstützenden Technologie sein, wenn sie die Verwendung eines Bildschirmlesegeräts überflüssig machen.

Cloud-basedEdit

Einige Telefondienste ermöglichen es Benutzern, remote mit dem Internet zu interagieren. Zum Beispiel kann TeleTender Webseiten über das Telefon lesen und erfordert keine speziellen Programme oder Geräte auf der Benutzerseite.

Web-basedEdit

Eine relativ neue Entwicklung auf diesem Gebiet sind webbasierte Anwendungen wie Spoken-Web, die als Webportale fungieren und Inhalte wie Nachrichten, Wetter, wissenschaftliche und geschäftliche Artikel für sehbehinderte oder blinde Computerbenutzer verwalten. Andere Beispiele sind ReadSpeaker oder BrowseAloud, die Webinhalten Text-to-Speech-Funktionen hinzufügen. Die primäre Zielgruppe für solche Anwendungen sind diejenigen, die aufgrund von Lernschwierigkeiten oder Sprachbarrieren Schwierigkeiten beim Lesen haben. Obwohl die Funktionalität im Vergleich zu gleichwertigen Desktop-Anwendungen begrenzt bleibt, besteht der Hauptvorteil darin, die Zugänglichkeit dieser Websites zu erhöhen, wenn sie auf öffentlichen Computern angezeigt werden, auf denen Benutzer keine Berechtigung zum Installieren benutzerdefinierter Software haben, wodurch die Benutzer mehr „Freiheit zum Roaming“ haben.

Mit der Entwicklung von Smartphones, die Fähigkeit, schriftliche Dokumente zu hören (textuelle Web-Inhalte, PDF-Dokumente, E-Mails usw.) während der Fahrt oder während einer ähnlichen Aktivität in der gleichen Weise, dass das Hören von Musik, wird ein viel breiteres Publikum als sehbehinderte Menschen profitieren. Die bekanntesten Beispiele sind Siri für iOS sowie Google Now und Iris für Android. Mit der Veröffentlichung des Galaxy S III führte Samsung auch einen ähnlichen intelligenten persönlichen Assistenten namens S Voice ein. Auf dem BlackBerry 10-Betriebssystem verfügt das Z30-Smartphone auch über gesprochene Interaktionsfunktionen, die den anderen mobilen Betriebssystemen ähneln.

Diese Funktionalität hängt von der Qualität der Software, aber auch von einer logischen Struktur des Textes ab. Verwendung von Überschriften, Interpunktion, Vorhandensein alternativer Attribute für Bilder usw. ist entscheidend für eine gute Vokalisierung. Auch eine Website kann aufgrund der Verwendung einer geeigneten zweidimensionalen Positionierung mit CSS gut aussehen, aber ihre Standardlinearisierung, beispielsweise durch Unterdrückung von CSS und Javascript im Browser, ist möglicherweise nicht verständlich.

Leave a Reply