#wiegehtesuns | Inklusion mithilfe künstlicher Intelligenz - "Diese digitalen Tools haben mich unabhängiger gemacht"

Di 28.05.24 | 06:22 Uhr
Marie Lampe ist blind und nutzt die KI auf ihrem Smartphone. (Quelle: rbb)
Audio: rbb24 Inforadio | 28.05.2024 | Hannah Fath | Bild: rbb

Lärm, Menschenmengen und Barrieren: Für blinde Menschen kann der Alltag in einer Großstadt zum Hürdenlauf werden. Marie Lampe war daher lange auf die Unterstützung anderer angewiesen. Inzwischen helfen ihr ein Smartphone und die richtigen Apps.

In der Serie #Wiegehtesuns? erzählen Menschen, wie ihr Leben gerade aussieht - persönlich, manchmal widersprüchlich und kontrovers. rbb|24 will damit Einblicke in verschiedene Gedankenwelten geben und Sichtweisen dokumentieren, ohne diese zu bewerten oder einzuordnen. Sie geben nicht die Meinung der Redaktion wieder.

Marie Lampe kam mit der Augenerkrankung Grauer Star auf die Welt. Schon immer hat sie sehr schlecht gesehen, war auf dem rechten Auge seit der Geburt blind. Durch eine weitere Augenerkrankung löste sich im Alter von vier Jahren ihre Netzhaut ab. Seitdem ist sie blind.

Durch inklusiven Schulunterricht und einen Aufenthalt auf einem Blinden-Internat konnte Marie Lampe ihr Abitur machen. Neben ihrem Job als Vorständin beim Verein Sozialhelden studiert sie derzeit Soziale Arbeit.

Berlin als Großstadt hat natürlich den Vorteil, dass man meistens Menschen um sich herum hat, die man fragen kann, wenn es mal gerade nicht so läuft, wie man sich das wünscht. Man hat Tausende Möglichkeiten, die Öffis zu nutzen. Wenn ich mit irgendeinem Weg nicht klarkomme, der zu kompliziert zu laufen ist, dann steige ich in den Bus oder die U-Bahn.

Als Mensch, der auf dem platten Land aufgewachsen ist, bin ich sehr froh über diese Möglichkeiten. Natürlich ist es trotzdem schwer. Es ist laut, es ist voll, es gibt viele Baustellen. Das macht es einem manchmal, wenn man blind ist, nicht so leicht.

Für mich sind Ampeln ohne akustische Schaltung das größte Hindernis. Ich kann dann nicht mehr hören, ob es rot oder grün ist.

Im Straßenverkehr sind für mich Ampeln ohne akustische Schaltung das größte Hindernis. Ich kann dann nicht mehr hören, ob es grün oder rot ist. In diesen Momenten bin ich also voll auf andere Menschen angewiesen.

Dabei ist mir Unabhängigkeit, also nicht auf anderen Menschen angewiesen zu sein, wirklich super wichtig. Wenn ich dann in diesen Momenten aber an stillen Ampeln stehe, bin ich eben nicht mehr unabhängig. Teilweise geht mir das auch so bei fehlenden Markierungen oder stark abgesenkten Bordsteinen in der Stadt. Obwohl ich weiß, dass das auch wieder was mit Barrierefreiheit zu tun hat und für andere Menschen total gut ist. Aber wenn ich den Übergang von Straße und Gehweg nicht wahrnehmen kann, dann bringt mich das in total gefährliche Situationen.

Zum Beispiel benutze ich die App "Be my eyes". Das war ursprünglich mal eine App, mit der man Menschen per Video anrufen konnte. Die Menschen am anderen Ende haben dann über das Kamerabild geholfen, Wege zu finden. Wenn man sich also gefragt hat, wo an einem Ort der Eingang ist, dann konnten die das sagen. Aber ich war eben darauf angewiesen, dass jemand diesen Anruf annimmt und dass sich jemand dazu bereiterklärt, gerade zu helfen.

Seit dem letzten Jahr gibt es in der App auch eine virtuelle Assistenz. Jetzt kann ich einfach ein Foto schießen und bekomme anschließend beschrieben, was da zu sehen ist. Außerdem kann ich auch Fragen stellen.

Ansonsten benutze ich noch "Seeing AI". Das ist eine App, mit der ich Texte lesen kann, die sich vor der Kamera befinden. Auch in Echtzeit. Ich kann mir Dokumente abfotografieren, bekomme sogar eine kleine Ausrichtungshilfe, wie ich das Handy halten muss, damit wirklich der ganze Text zu sehen ist. Ich kann damit Barcodes von Verpackungen lesen, um in meiner Küche Sachen auseinanderhalten zu können, die sich gleich anfühlen - also zum Beispiel Tomaten und Kokosmilch. Auch Szenen- und Personenbeschreibungen, Licht- und Farberkennungen kann mir die App geben. Das hilft mir auch sehr im Alltag, weil es sehr viele Funktionen vereint und auch sehr genau ist.

Der mitleidige Blick, den ich da manchmal "höre" darf gerne verschwinden. Ich wünsche mir, dass wir einfach als Menschen wahrgenommen werden, die in der Mitte der Gesellschaft stehen.

Diese digitalen Tools, die KI nutzen, haben mich unabhängiger gemacht. Ich bin nicht mehr darauf angewiesen, dass jemand Zeit, Lust und Geduld hat, meine Fragen zu beantworten. Ich kann immer darauf zurückgreifen, auch wenn es nachts um drei ist und ich in irgendeiner einsamen Gegend unterwegs bin. Ich habe immer die Möglichkeit, mir meine Umgebung beschreiben zu lassen und das bietet für mich auch nochmal einen ganz anderen Zugang, den ich früher einfach nicht hatte. Das bringt natürlich auch so ein bisschen Teilhabe am gesellschaftlichen Leben oder an meiner Umwelt.

Ich glaube, dass der Zugang für Menschen, die blind sind, einfacher geworden ist, dadurch, dass es diese digitalen Tools gibt. Teilweise vereinen die total viele Hilfsmittel in einer App, die man früher bei der Krankenkasse einzeln in einem langwierigen Verfahren beantragen musste, also zum Beispiel ein Barcode-Scanner, ein extra Farberkennungsgerät oder einen Text-Scanner.

Was aber immer noch vereinfacht werden muss, ist die Kostenübernahme von Hilfsmitteln. Ich erlebe es häufig bei Menschen, die einen Assistenzhund beantragen, dass der dann erstmal abgelehnt wird. Dass blinde Menschen gefühlt teilweise von der Willkür einiger Sachbearbeiter abhängig sind, ist schlimm.

Ich komme zwar inzwischen durch den Alltag. Gleichzeitig wünsche ich mir aber vor allem, auch als mündiger erwachsener Mensch wahrgenommen zu werden, der seine Fähigkeiten selbst einschätzen und auch sagen kann, wenn er Hilfe oder Unterstützung braucht. Der mitleidige Blick, den ich da manchmal "höre" darf gerne verschwinden. Ich wünsche mir, dass wir einfach als Menschen wahrgenommen werden, die in der Mitte der Gesellschaft stehen.

Gesprächsprotokoll: Victor Marquardt

Sendung: rbb24 Inforadio, 28.05.2024, 6:00 Uhr

Nächster Artikel