Was benötigen blinde Menschen im Internet?

Shownotes

Links zur Episode

Kostenloser Screenreader NVDA: https://nvda.bhvd.de/

Dr. Alexander Pavkovic arbeitet beim Bayerischen Blindenbund BBSB: https://bbsb.org/

Zentrum für barrierefrei Medien für blinde und sehbehinderte Menschen beim BBSB: https://bbsb.org/beratung-und-angebote/barrierefreie-medien-bit-zentrum/

Links der Beratungsstelle Barrierefreiheit:

Kostenlose Erstberatung zum Thema digitale Barrierefreiheit unter: https://www.byak.de/planen-und-bauen/beratungsstelle-barrierefreiheit/digital-barrierefrei/kostenlose-erstberatung.html

Die Anmeldung zu dem gleichnamigen Barriere Los Newsletter finden Sie unter: https://www.byak.de/planen-und-bauen/beratungsstelle-barrierefreiheit/digital-barrierefrei/newsletter.html

Abonnieren Sie auch unseren Podcast unter https://barriere-los.podigee.io/

Der Postcast wird erstellt von der Beratungsstelle Barrierefreiheit: https://www.byak.de/digital-barrierefrei. Die Beratungsstelle wird gefördert von Bayern Barrierefrei: https://www.barrierefrei.bayern.de

Dennis Bruder ist Fachkraft im Test.Labor Barrierefreiheit der Werkstatt der Stiftung Pfennigparade: https://www.pfennigparade.de/

Transkript anzeigen

Transkript Podcast BarriereLos – Bayerischen Blindenbund (BBSB) Pavkovic

Sprecher*innen: Dennis Bruder (Moderator), Alexandra Gödecke (Einsprecher)

Gast: Dr. Alexander Pavkovic vom Bayerischen Blindenbund (BBSB)

Transkription des Interviews:

Alexander Pavkovic: und das fällt mir manchmal auf bei solchen öffentlichen Stellen, dass dann ein Link irgendwie: „Hier geht es zur Unterseite Abteilung Dreipunktdrei unseres Instituts mit weiterführenden Informationen zur Barrierefreiheit dieses Webangebots.“ Hach. Ein bisschen viel auf einmal.

Alexandra Gödecke (Sprecherin - Anmoderation mit Musikuntermalung): Barriere? Los! Der Podcast für barrierefreie Lösungen im digitalen Raum.

Dennis Bruder: Hallo und herzlich willkommen zu BarriereLos Dem Podcast zur Digitalen Barrierefreiheit. Mein Name ist Dennis Bruder. Ich bin Berater für die Beratungsstelle Digitale Barrierefreiheit in Bayern und in dem Zuge will ich auf ein Angebot aufmerksam machen, und zwar, dass Sie sich bei uns bei der Beratungsstelle Barrierefreiheit auch jederzeit melden können, wenn Sie eine Frage zum Thema Digitale Barrierefreiheit haben. Dort können wir innerhalb von einer Beratung zwischen einer und zwei Stunden ganz allgemein zum Thema Digitale Barrierefreiheit aufklären, wir können Fragen direkt beantworten und wir können auch vielleicht Termine zu Workshops ausmachen. So und dann will ich auch schon zum heutigen Thema kommen, und zwar haben wir einen Gast eingeladen, mit dem ich jetzt schon seit ein paar Jahren einen ganz guten Austausch habe und Kontakt habe und das Thema, über das Thema Digitale Barrierefreiheit aus der nutzenden Sicht sprechen kann, und zwar ist mein Gast heute Alexander Pavkovic vom Bayerischen Blindenbund (BBSB). Bevor ich ihm jetzt meine erste Frage stelle, stellt ihn unsere Werkstattmitarbeiterin Alexandra Gödecke mal kurz vor.

Alexandra Gödeke (Einspieler mit Ton): Dr. Alexander Pavkovic ist geburtsblind und computer-affin. Nach dem Studium der Slavistik, Geschichte und Politikwissenschaften arbeitete er als IT-Trainer für blinde und sehbehinderte Menschen in Nürnberg. Seit 2013 unterstützt er als Digital Accessibility Professional das BIT-Zentrum, die Medienabteilung des Bayerischen Blinden- und Sehbehindertenbundes.

Dennis Bruder: Ja. Hallo, Alexander.

Alexander Pavkovic: Hallo, Dennis. Hallo, liebe Hörerinnen und Hörer. Oh. Herzlichen Dank für die Einladung oder wie es im englischen Podcast immer so schön heißt: Thans for having me.

Dennis Bruder: Ja. Genau. Wir sind ja ein Podcast, der ganz gerne Lösungen und nicht die Probleme in den Mittelpunkt stellt. Hast du so in letzter Zeit, weil: Du bist ja auch viel unterwegs im Internet, viel auf Webseiten unterwegs. Hast du da irgendetwas Positives oder Lösungsorientiertes zu berichten, das dir so im digitalen Leben, im digitalen Umfeld begegnet ist in letzter Zeit?

Alexander Pavkovic: Ja. Das ist eine sehr sympathische Frage und ich finde es auch sehr wichtig, denn man kann ja wirklich nörgeln, nölen und auch zu Recht fordern, dass es endlich noch viel mehr Barrierefreiheit geben muss und dass Vieles noch fehlt, aber was ich zum Beispiel feststelle, was ein richtiger Selbstläufer geworden ist in bestimmten Teilen der Community auf Twitter: Dort wo es gar nicht um, wo gar nicht behinderte Menschen nur zusammen sind, sondern von denen angeregt, von uns angeregt nämlich auf Twitter, in bestimmten Bereichen der Community, zum Beispiel in der christlichen, theologischen Zunft, könnte man fast sagen…da breitet sich gerade der Trend zur Bildbeschreibung aus, und ich finde es großartig. Also: Da werden wirklich Tweets mit der Bildbeschreibung versehen, mit Alternativtext und Twitter kennzeichnet das halt kurz ja auch mit dem ALT. Also: Da weiß man, Da ist jetzt ein Alternativtext auch mit dabei, weil auch lange Jahre eine Forderung, dass das kommt, ist jetzt da, dass man das auch sieht, dass auch Sehende sehen. Da ist jetzt für Screenreader-User an der Stelle tatsächlich eine Bildbeschreibung vorhanden und es ist immer noch vielleicht unter einem Prozent aller Tweets, die Bilder enthalten, aber es breitet sich aus, habe ich den Eindruck.

Dennis Bruder: Ja. Das ist sehr positiv auf jeden Fall. Es kann natürlich auch sein, dass es daran liegt, das ist mir nämlich in letzter Zeit aufgefallen, dass Twitter dieses Feature sehr aktiv und präsent gemacht hat. Also: Man hat jetzt quasi bei jedem Bild sehr offensiv die Möglichkeit, Alternativtexte zu schreiben, und, ja… Wir versuchen da auch bei uns immer in der Pfennigparade selber quasi an unseren eigenen Produkten so zu arbeiten, dass diese Barrierefreiheitsfunktionen sehr offensiv gestaltet sind und ich glaube, wenn man das immer wieder sehr präsent hat, dann ist es auch für die Redakteure einfach einfacher, diese ganzen Dinge zu machen und immer wieder daran zu denken. Ja und wenn wir schon drüber reden: Das Thema Alternativtexte ist vielleicht etwas, was jetzt nicht jedem geläufig ist, nicht jeder Hörerin und jedem Hörer, und was das ist ein Alternativtext, das erklärt uns mal unsere Werkstattmitarbeiterin Alexandra Gödeke.

Alexandra Gödeke (Einspieler mit Ton): Blinde Internetnutzer können bestimmte Informationen zu Bildern und Bedienelementen nicht erfassen. Um die Inhalte dennoch wahrnehmen zu können, braucht es Alternativtexte. Diese beschreiben beispielsweise ein Bild so, wie es sehende Menschen wahrnehmen. Alternativtexte werden von einem Spezialprogramm, dem sogenannten Screenreader ausgelesen und müssen von der Redaktion geschrieben und hinterlegt werden. Bei der Beschreibung sollte man darauf achten, nur wichtige Informationen zu vermitteln.

Dennis Bruder: Ja. Jetzt haben wir gehört, was ein Alternativtext ist. Jetzt mache ich mal einen kleinen Bogen so zu dir, Alexander. Du aus der Nutzenden Sicht. Du bist ja blind und du benutzt ja im Internet bestimmt eine ganze Menge Hilfsmittel, eine ganze Menge technische Hilfsmittel: Hilfsmittel am Computer, Programme. Was hast du da gerade alles so im Einsatz, damit unsere Hörerinnen und Hörer auch mal verstehen, was so möglich ist und was aber auch nötig ist?

Alexander Pavkovic: Im Einsatz ist bei mir natürlich immer bei der Internetnutzung wie überhaupt bei der Nutzung mit Computer, Tablett, Smartphone immer der Screenreader, das Programm, das mir Texte entweder in Sprache, also als gesprochenen Text vorliest oder zusätzlich ein Gerät mit Daten versorgt, die sogenannte Braillezeile, ein Gerät, das Text in Brailleschrift anzeigt. Also: Das heißt: Einen kurzen Ausschnitt immer jeweils. Je nachdem, wie groß das Gerät ist, dass dann diese Stiftchen emporkommen lässt. Also: Vierzig Zeichen pro Zeile beziehungsweise pro Ausgabeeinheit und dann muss ich wieder weiterscrollen. Auf mobilen kleineren Geräten sind vierundzwanzig oder vierzehn oder so. Ich habe hier so eine vierziger Braillezeile vor mir. Das heißt: In meinem Fall ist es ein Kombigerät aus ganz normaler Tastatur. Vom Layout her, wie man sie auf Notebooks kennt, Laptops, und darin eingebaut diese Brailleschriftsanzeige. Ich schalte oft auch die Sprache weg, lese also nur Brailleschrift und gerade unterwegs und mit dem Smartphone und weil es besonders schnell geht, ist aber doch auch die Sprachausgabe diese synthetische Stimme zu hören. Heute haben Computer Betriebssysteme, mobile Betriebssysteme für Tabletts und Smartphones diese Spracheausgabe eigentlich schon immer an Bord. Die kann man aktivieren. Die muss man nicht dazu installieren. Gerade unter Windows ist allerdings eine nachinstallierte Screenreadersoftware, zum Beispiel einer der kommerziellen Marktführer aber auch die Open-Social-Lösungen NVDA auf jeden Fall zu empfehlen, weil das, was Windows mitliefert, das lernt von Update zu Update gewaltig dazu, es eben noch nicht dem ebenbürtig, was seit Jahren/Jahrzehnten extra dafür programmiert wird. Also: Das ist das Kernstück meiner assistiven Technologien hier. Der Screenreader, die Braillezeile im stationären oder mobilen Einsatz und das Ganze kombiniert mit dem ganz normalen, mit den mainstreamigen Browsern zum Beispiel. Also: Ich habe eigentlich, ich empfehle immer: Man muss auf Windows-PCs zum Beispiel auf jeden Fall zwei Browser installiert haben, möglichst einen chromiumbasierten habe ich hier den Windows Edge meistens im Einsatz, manchmal auch Google Chrome, aus verschiedenen Gründen habe ich beide, und dazu noch muss ich noch Mozilla Firefox. Es gibt nämlich Situationen, da kommt der eine Browser mit dem Screenreader und der jeweiligen Website besser klar und mal ist es wieder die andere Kombi. Das zeigt dann immer oder deutet darauf hin, dass mit der Barrierefreiheit bei der Seite nicht alles ganz optimal ist. Das müsste mit beiden oder mit allen Kombinationen gleich gut laufen, das ist manchmal nicht der Fall und das empfehle ich immer in der Beratung, dass man da schon möglichst flexibel im Einsatz sein soll, ja, und das Ganze wird natürlich mit Tastatur genutzt oder eben bei Smartphones/Tabletts auch gerne mit Touchscreenbedienung. Das heißt: Das einzige Mittel, das bei mir nur tatsächlich irgendwo links liegt oder rechts oder auch gar nicht vorhanden ist, ist es die Maus.

Dennis Bruder: Wenn du jetzt gerade davon geredet hast, dass gewisse Webseiten nicht so besonders barrierefrei sind und man da eben mit dem Screenreader auf Probleme stoßen kann, was ist dir denn überhaupt wichtig, wenn du eine Webseite, wenn du ein digitales Produkt besuchst, also was brauchst du von der Webseite und von den Leuten, die eine Webseite programmieren?

Alexander Pavkovic: Die Website muss klar strukturiert sein. Das ist das Allerwichtigste. Das heißt: Da muss gearbeitet werden mit, ja, ich sage mal, Überschriften mit einer klaren Kennzeichnung: „Dieser Text hier ist eine Überschrift.“ oder er ist Teil einer Liste, entweder nummeriert oder unnummeriert oder „Hier fängt ein neuer Artikel an, ein neuer Textabsatz.“ muss das alles, das muss alles in HTML in dem Quellcode gestaltet wird. Das muss das wiedergeben, was denn sinnvollerweise hier, der Text muss korrekt abgebildet sein. Das Gleiche gilt für Tabellen, tabellarischer Inhalt, das muss passen, das muss oben eine Zeile sein, die die Spalte ganz genau wiedergibt und so. Bilder brauchen halt einen Alternativtext, kurz, prägnant, knackig. Da kann man zum Beispiel immer weglassen den Halbsatz: „Auf diesem Foto sieht man.“ und so, weil: Es ist klar, dass es sich um eine Grafik handelt. Das habe ich schon angemerkt oder angesagt. Also: Wirklich sofort zum Punkt kommen, zur Sache kommen und, ja, das ist so das Wesentliche, dass es keine Elemente gibt, die aus etwas bestehen, was nicht Text ist oder nicht Text zugeordnet ist, und, klar, Steuerung durch die Tastatur muss immer möglich sein. Es darf nicht sein, dass ich für irgendeine bestimmte Interaktion zwingend die Maus brauche. An der Stelle kann ich dann mit dem Screenreader so tun, als hätte ich eine Maus, aber das ist immer wesentlich umständlicher, als wenn die direkte Tastatursteuerung möglich ist.

Dennis Bruder: Das ist auch etwas, was man tatsächlich mal, also, auch wenn man quasi nicht blind ist, sondern einfach sich mal reinversetzen will. Das kann man ganz schön auch mal ausprobieren, vielleicht mit seiner eigenen Homepage oder die Homepage für den Arbeitgeber, für den man arbeitet, sich mal hinzusetzen und vielleicht mal einen Screenreader zu installieren. Also: Wir haben es vorhin gehört, den NVDA oder bei Windows einfach mal die interne Funktionalität nutzen, um dort einfach mal reinzuhören und eben auch eine Seite mit der Tastatur einfach mal versuchen zu nutzen, um zu sehen: „OK. Werden da überhaupt alle Elemente angesprungen? Fehlt da irgendetwas?“ Genau. Das ist auch etwas, was wir in der Testung immer machen. Wenn du jetzt sagst, du brauchst da eben gewisse Dinge oder dir sind gewisse Dinge wichtig, wie ist es denn so im Alltag? Also: Triffst du häufig auf Barrieren, die du gar nicht überwinden kannst? Gerade auch bei öffentlichen Stellen, die ja verpflichtet sind?

Alexander Pavkovic: Bei öffentlichen Stellen treffe ich, da kommen wir vielleicht nachher nochmal im Einzelnen dazu, tatsächlich manchmal auf eine sehr redselige, um nicht zu sagen, geschwätzige Barrierefreiheit. Das fällt mir zurzeit auch manchmal auf in Programmen, wie dem Microsoft Edge oder sonst irgendwie Mainstream Technologie, dass plötzlich unglaublich die Sprachausgabe mit ganz, ganz vielen Daten versorgt wird. Ja? Also: „Seite wird geladen, Seite wird immer noch geladen, Seite ist jetzt vollständig geladen.“ Juhu. Also: da passiert jetzt momentan irgendwie etwas. Wahrscheinlich ist da das Bewusstsein da. Jetzt müssen wir irgendwie ganz arg für Barrierefreiheit sorgen und jetzt werden die Dinger sehr, ja, ausführlich. Da gibt es eine hohe Verbosity würde man auf Englisch sagen, eine sehr hohe Wortausführlichkeit, und das fällt mir manchmal auf bei solchen öffentlichen Stellen, dass dann ein Link irgendwie: „Hier geht es zur Unterseite Abteilung Dreipunktdrei unseres Instituts mit weiterführenden Informationen zur Barrierefreiheit dieses Webangebots.“ Hach. Ein bisschen viel auf einmal. Also: Das fällt mir da auf. Barrieren, die ich gar nicht überwinden kann, da würde ich sagen: Ja. Manchmal wird Digitalisierung irgendwie halbherzig umgesetzt. Digitalisierung sieht dann manchmal zum Beispiel so aus, dass man etwas, was in gedruckter Form vorliegt, einfach einscannt, als PDF bereitstellt zum Download, aber tatsächlich nur in dieser Form, dass da sozusagen auf die Weise Bilder gemacht worden sind von dem Heft oder Broschüre oder so etwas. Da ist nicht der Text mit dabei. Ich muss dann auch wieder eine Zeichenerkennung, eine OCR drüber laufen lassen. Das hat man dann vielleicht gemacht, weil irgendwelche Unterschriften drauf, die auch richtig sind oder so etwas, oder umgekehrt: Es ist etwas irgendwie auszufüllen, etwas anzugeben in Form eines Formulars einzureichen. Das Formular ist zum Download bereitgestellt. Es ist ein PDF. Ausfüllen muss ich es dann aber wieder mit der Hand beziehungsweise händisch unterschreiben und dann irgendwo per Post einschicken, weil es irgendwie in dem Workflow nicht anders geht. Also: Digitalisierung irgendwo auf halber Strecke umgesetzt, das fällt mir auf, dass es immer noch vorkommt.

Dennis Bruder: Ich meine, es gibt ja, also, wir haben eben darüber gesprochen, dass es ja PDFs auch oder irgendwelche Dateien, die eingebunden sein müssen, die müssen natürlich auch barrierefrei sein. Gehört tatsächlich auch zur gesetzlichen Verpflichtung in Deutschland, dass alle Inhalte, die jetzt zum Beispiel in Webseiten oder irgendwelcher Anwendungssoftware dann eben für öffentliche Stellen enthalten sind, dass die eben auch barrierefrei sein müssen. Auch ein ganz wichtiges und eigenes Feld. Ich weiß nicht, wie gut du dich so mit der grundsätzlichen Forderung an sich auskennst, aber: Hast du irgendwie ein paar Tipps bei Sachen, die jetzt vielleicht nicht so zum Standard, zum gesetzlichen Standard gehören, die dir aber trotzdem total weiterhelfen?

Alexander Pavkovic: In dem Standard steht natürlich drin: Es braucht also eine wahrnehmbare Form für die jeweiligen Nutzenden und da würde man das zum Beispiel denken: „OK. Das, was grafisch ist, das braucht eine Bildbeschreibung, wenn es irgendwo ein Erklärvideo gibt, dann braucht es irgendwie auch Text dazu und es darf nicht einfach nur eine Begleitmusik sein und alles andere spielt sich auf einem Bildschirm ab, sondern das muss irgendwie eine Audiospur geben. Stichwort Audio, was natürlich jetzt zum Beispiel nicht im Gesetz steht, aber was sich vielleicht manchmal anbietet, wenn es irgendwo eine Bildergalerie gibt zu irgendwelchen Produkten, Dienstleistungen, vielleicht zeigt man irgendwo auf der Website, wie schön neulich der Betriebsausflug war und dann hat man noch ein paar schöne Bilder gemacht, die haben dann vielleicht noch eine Bildbeschreibung, aber vielleicht bietet es sich auch an, parallel zu schauen: Kann man irgendetwas mit schönen Höreindrücken auch machen? Das, was in Museen oft gibt, in Form eines Audioguides oder so, vielleicht kann man auch ein paar Audiodownloads mit ein paar netten Sachen hinterlegen in einem geeigneten Format oder eingebettet mit einem Audioplayer, dass eben da auch ein bisschen etwas zum Hören ist. Also: Wirklich Zwei-Sinne-Prinzip oder Mehr-Sinne-Prinzip: Etwas zum Sehen, etwas zum Hören und das steht jetzt so explizit nirgends in den Richtlinien, aber es ist ja vielleicht auch eine Möglichkeit, da mal zu sagen: „OK. Wir können doch mal kreativ sein.“

Dennis Bruder: Ja. Du gibst ja auch das Wissen zum Thema oder dein Wissen zum Thema Digitale Barrierefreiheit weiter. Was machst du denn da so?

Alexander Pavkovic: Wenn ich solche Workshops anbiete, Beratung, Schulung, Präsentation, dann ist es auf jeden Fall immer sehr wichtig, dass die Teilnehmenden da möglichst viel erleben. Also: Es ist kein Referat. Ich halte jetzt nicht einfach einen Vortrag und es kommt auch ganz selten mal eine PowerPoint Präsentation oder etwas Vergleichbares zum Einsatz. Das manchmal, wenn ich mit einer Kollegin zusammen tatsächlich Praxisschulungen mache. Also: „Wie stelle ich zum Beispiel von Anfang an sicher, dass mein Worddokument oder so barrierefrei wird?“ Da machen wir natürlich auch Praxisübungen, da präsentieren wir dann auch etwas, aber ansonsten, wenn ich jetzt, gerade wenn ich allein unterwegs bin, dann ist ein wesentlicher Punkt: Die Präsentation, einfach die Livepräsentation dessen: Wie hören sich für mich mit einem Screenreader barrierefreie Seiten an? oder: Wie klingen tatsächlich Barrieren? Wie hört es sich an, wenn ich mit einer Website fast nichts anfangen kann, weil er überall sagt: Unbeschrifteter Schalter oder weil er nur sagt: Link, aber nicht, was da steht eigentlich oder weil er nur sagt: Grafik und das Bild hat keinen Alternativtext. Das Gleiche auch durchaus mal für Softwareentwicklungsteams, dass ich deren Software dann live mal vorführe: Wie ist es denn mit einer Tastatursteuerung, wenn ich dauernd Tab drücke und er sagt immer nur: „Schalter.“, aber nicht, was der Schalter tut, dann wissen die Teams sofort: Ah, da besteht noch Bedarf. Da müssen wir nachbessern. Ja? Also: Es hat tatsächlich immer ganz große Komponente. Also, zum einen, wenn es irgendwie geht, auch selber etwas auszuprobieren. Wie schon vorher gesagt: Die haben möglicherweise auch mal selber mit der Tastatur und ohne Maus, die Maus bewusst mal weglegen, und vor allem wirklich die Livepräsentation. Alle, die an so einem Workshop teilgenommen haben, haben dann sehr ausführlich mal gehört: „Wie klingt das für mich alles? Wie nehme ich diese Angebote wahr?“

Dennis Bruder: Ja. Das fand ich auch immer sehr spannend, wenn ich das mal live gesehen habe, wie das dann ist. Also: Gerade diese Screenreaderaufnahme. Die ist immer sehr eindrücklich, finde ich, und man sieht ja noch häufig, gerade auch, in dieser Livepräsentation quasi das visuell. Also: Wir nehmen das alle visuell wahr und wenn man dann mal die Augen kurz zumacht, wie es sich dann wirklich auch nur anhören würde. Also: Ich finde, gerade diese Livepräsentation schaffen das größte Bewusstsein dafür. Ja. Jetzt sind wir auch schon fast durch mit dieser Folge. Jetzt noch so eine Frage in die Zukunft, weil ich finde, in den letzten Jahren hat sich auf technischer Ebene wahnsinnig viel getan. Also: Wenn man sich jetzt mal überlegt, was ein Smartphone alles für blinde Nutzer machen kann inzwischen, das ist schon ziemlich genial, also, irgendwie. Vielleicht kannst du noch etwas darüber berichten: Ein Foto kann man ja von oder eine Kameraaufnahme von irgendwelchen Gegenständen machen, das und sich dann quasi ausgeben lassen, was sich vor einem befindet. Genau. Was glaubst du denn so, was die Zukunft noch bereithält und was würdest du dir vielleicht auch so als Produkt selber vorstellen oder wünschen, was so entwickelt wird?

Alexander Pavkovic: Produktentwicklungen, um damit anzufangen, gibt es dauernd. Ständig kommen Anfragen, ob ich gern mal so etwas testen würde, bereit wäre, etwas auszuprobieren aus dem, ja, universitären oder ganz allgemein aus dem wissenschaftlichen Umfeld. Da kommen natürlich auch Sachen, die es längst gibt. Da entwickelt jemand ein Officeprogramm, eine App für ein mobiles oder für ein PC-Betriebssystem nach dem Motto: „Ja. Damit auch die Blinden endlich mal selber Texte schreiben können.“ Die Leute könnten sich natürlich mal informieren und wissen, dass man das seit Jahrzehnten kann, auch mit ganz normalen Anwendungen, nicht mit einem speziellen Blindenoffice, sondern mit der ganz normalen Textverarbeitung oder Tabellenkalkulation, die es schon auf dem Markt gibt. Also: Manches, da müsste auch gar nicht so viel Entwicklung irgendwie sozusagen stattfinden, sondern da wäre es gut, sich vorher informiert zu haben. Ich wüsste jetzt gar nicht irgendein Produkt, das es noch gar nicht gibt. Würde mir jetzt gar nicht einfallen. Es ist ja auch immer schwierig zu sagen: „Was braucht es noch?“ Es ist aber so… das, was momentan mit zum Beispiel den Smartphones möglich ist, auch mit der Kamera, das hat eigentlich, was die Produkterkennung angeht, die automatische Produkterkennung oder Szeneriebeschreibung, das alles hat eher noch einen Spielereicharakter würde ich sagen. Das Ding sagt mir dann zum Beispiel: „Zwei Personen befinden sich vor dir.“ und vielleicht erkennen die sogar, wer es ist, wenn ich den vorher gespeichert habe. Also: Wenn ich jetzt meinen Chef speichere und dann sagt mir irgendwie die entsprechende App, dass der sich jetzt nähert, dann hat der aber wahrscheinlich schon vorher „Hallo, Alexander“ zu mir gesagt, bevor ich den wirklich jetzt ermittelt habe diese Person. Da weiß ich nicht, wie groß der Nutzen ist. Ich glaube, da sind wir Blinde momentan auch ein großes Textlaboratorium oder eine Forschergruppe quasi oder werden mitgenutzt, um diese künstliche Intelligenz auch zu optimieren. Da gibt es Apps, die so etwas tun: Szenen beschreiben, Personen beschreiben, Produkte. Ja. Man merkt das zum Beispiel bei den automatisch generierten Bildbeschreibungen auf Facebook und anderen Plattformen. Dieses Bild könnte eine Person enthalten, die im Freien steht und lächelt. Ja. Das ist auch schon mal eine Information, aber wieviel die bringt, ist die Frage. Ich glaube, dass sich an der Stelle in den nächsten Jahren noch mehr tun wird mit noch mehr Rechenpower, die da ist, vielleicht dann auch mit umfangreicheren Datenbanken, und ansonsten ist bisher wahrscheinlich die menschliche Interaktion, die zwischenmenschliche immer noch das Größte, was diese Möglichkeiten hier jetzt sind. Es gibt zum Beispiel die App Be my Eyes würde wahrscheinlich am besten mit „Leih mir deine Augen“ oder so übersetzen, wo man sich zusammenschalten kann. Ich rufe quasi zufällig eine Person an. Da gibt es einen Videochat dann, also Audio und Video ist da, die Person kann dann mir etwas beschreiben, indem ich meine Kamera bewege und nach etwas Bestimmtem frage und Assistenz brauche. Das kann dann am unterschiedlichsten sein bei irgendeinem Automaten, Getränkeautomat, der nicht beschriftet ist, kann der Altglascontainer sein, wo ich also die verschiedenen Farben, die verschiedenen Glassorten, braunes Glas und Weißglas und so weiter, mir unterscheiden lassen helfe durch Assistenz via Smartphone und was die Automatik betrifft, was also Apps von selber können ohne menschliche Interaktion. Klar. Also: Texterkennung, gedruckte Texte vorlesen, die es einfach nicht digital gibt in dem Moment oder die nicht digital zur Hand sind, in der Richtung. Das funktioniert schon recht ordentlich und ist wahrscheinlich jetzt auch gar nicht noch besonders zu perfektionieren. Das wird sicher auch irgendwie eine weitere Rolle spielen. Weiterhin auch, weil es nicht immer alles digital gibt und ansonsten, ja, bleibt es spannend, was sich in den nächsten Jahren so tut mit auch irgendwelchen Wearables, mit irgendwelchen digitalen Helfern, die man mit sich rumträgt, was ja auch Menschen ohne Behinderung tun.

Dennis Bruder: Ja. Danke, Alexander, das waren ein paar sehr spannende und sehr direkte anschauliche Eindrücke, die wir da bekommen haben, und das war dann auch schon mit dieser Folge von BarriereLos.

Alexander Pavkovic: Ja. Herzlichen Dank und viel Freude weiterhin mit dem Podcast.

Dennis Bruder: Wenn ihr selbst Fragen zur Digitalen Barrierefreiheit habt, könnt ihr die, wie schon am Anfang der Sendung gesagt, über die Beratungsstelle Barrierefreiheit bei der Webseite Bayerische Architektenkammer stellen. Dort könnt ihr uns dann eben direkt kontaktieren. Wenn euch die Folge gefallen hat, lasst uns eine Bewertung da und folgt unserem Kanal. Alle Links zur Sendung und zum Newsletter sowie zur Beratungsstelle Barrierefreiheit findet ihr in den Shownotes. Dann bis zur nächsten Folge von BarriereLos.

Neuer Kommentar

Dein Name oder Pseudonym (wird öffentlich angezeigt)
Mindestens 10 Zeichen
Durch das Abschicken des Formulars stimmst du zu, dass der Wert unter "Name oder Pseudonym" gespeichert wird und öffentlich angezeigt werden kann. Wir speichern keine IP-Adressen oder andere personenbezogene Daten. Die Nutzung deines echten Namens ist freiwillig.