SightCity Forum 2025 - KI und Barrierefreiheit (F1091)
23.11.2025 31 min
Video zur Episode
;
Zusammenfassung & Show Notes
In dieser Folge des SightCity Podcasts präsentiert Domingos de Oliveira gemeinsam mit Sophie Johanning einen aufschlussreichen Vortrag zum Thema "KI und Barrierefreiheit". Aufgezeichnet am 21.05.2025 um 15:45 Uhr im Rahmen des SightCity Forums 2025, beleuchtet der Vortrag die aktuellen Möglichkeiten, Herausforderungen und Zukunftsperspektiven von KI-Technologien für blinde und sehbehinderte Menschen. Als selbst betroffener Experte für digitale Barrierefreiheit teilt de Oliveira wertvolle Einblicke in die praktische Anwendung von KI im Alltag sowie die damit verbundenen Chancen und Risiken.
Vortragstitel: KI und Barrierefreiheit
Referenten: Domingos de Oliveira und Sophie Johanning
Datum: 21.05.2025, 15:45 Uhr
Veranstaltung: SightCity Forum 2025
Referenten: Domingos de Oliveira und Sophie Johanning
Datum: 21.05.2025, 15:45 Uhr
Veranstaltung: SightCity Forum 2025
Inhalt des Vortrags:
Persönlicher Hintergrund des Referenten:
- Von Geburt an blind mit geringem Sehrest
- Beruflich tätig als Experte für digitale Barrierefreiheit
- Unterstützt Unternehmen und Behörden bei der barrierefreien Gestaltung digitaler Angebote
Aktuelle KI-Anwendungen für blinde und sehbehinderte Menschen:
- Automatische Bildbeschreibungen durch ChatGPT, Gemini und spezialisierte Apps wie SeeingAI und BeMyEye
- Erkennung von Umgebungen und Szenarien zur Orientierungshilfe
- Identifizierung von Produkten und Lebensmitteln
- Meta/Ray-Ban Smart Glasses mit KI-Funktionen (bisher hauptsächlich in den USA verfügbar)
- Intelligente Blindenstöcke mit KI-basierter Hinderniserkennung
- Automatische Audiodeskription von Videos durch Tools wie Zegen AI und Pixybot
- Kreative Anwendungen wie KI-gestützte Musikerstellung mit Suno AI
Herausforderungen und Probleme:
- Digitale Spaltung zwischen technikaffinen und weniger technikversierten Nutzern
- Datenschutzbedenken bei cloud-basierten Diensten außerhalb der EU
- Verzerrungen (Bias) in den Trainingsdaten der KI-Modelle
- Fehlende Überprüfbarkeit der Korrektheit von KI-Beschreibungen für blinde Menschen
- Übertriebene Marketingversprechen von Anbietern
- Verzögerungen bei der Echtzeitverarbeitung
Lösungsansätze:
- Entwicklung spezieller KI-Modelle, die für die Bedürfnisse blinder Menschen trainiert werden
- Lokale Verarbeitung auf dem Gerät statt in der Cloud für besseren Datenschutz und schnellere Reaktionszeiten
- Nutzung von Modellen, die mit Unsicherheit umgehen können und ihre Zuverlässigkeit kommunizieren
- Schulungen für blinde Menschen zum kompetenten Umgang mit KI-Technologien
Fazit:
- KI ist der größte Innovationstreiber für assistive Technologien seit der Einführung zugänglicher Smartphones
- Wir stehen erst am Anfang der Entwicklung mit enormem Potenzial
- Notwendig ist ein ausgewogener Ansatz, der Chancen nutzt und Risiken minimiert
Rechtlicher Hinweis
Dieser Mitschnitt wurde während der SightCity 2025 aus den Online Ausstellervorträgen erstellt. Das Urheberrecht an den Aufnahmen liegt bei der SightCity GmbH. Jede Verwendung, Vervielfältigung oder Verbreitung durch Dritte ist ohne ausdrückliche schriftliche Genehmigung untersagt. Die Verarbeitung personenbezogener Daten erfolgt gemäß den Bestimmungen der DSGVO. Produktangaben entsprechen dem Stand der SightCity 2025; Änderungen vorbehalten; keine Gewähr für Schreib- oder Übertragungsfehler.
Dieser Mitschnitt wurde während der SightCity 2025 aus den Online Ausstellervorträgen erstellt. Das Urheberrecht an den Aufnahmen liegt bei der SightCity GmbH. Jede Verwendung, Vervielfältigung oder Verbreitung durch Dritte ist ohne ausdrückliche schriftliche Genehmigung untersagt. Die Verarbeitung personenbezogener Daten erfolgt gemäß den Bestimmungen der DSGVO. Produktangaben entsprechen dem Stand der SightCity 2025; Änderungen vorbehalten; keine Gewähr für Schreib- oder Übertragungsfehler.
Über die SightCity
Die SightCity ist Europas größte Fachmesse für Blinden- und Sehbehinderten-Hilfsmittel. Mehr Informationen: www.sightcity.net
SightCity Kontakt (Allgemein)
E-Mail: info@sightcity.net
Website: https://www.sightcity.net
Social Media: Facebook, Instagram, YouTube, Threads, TikTok, WhatsApp
E-Mail: info@sightcity.net
Website: https://www.sightcity.net
Social Media: Facebook, Instagram, YouTube, Threads, TikTok, WhatsApp
Transkript
Willkommen beim SightCity Podcast,
dem Podcast in deutscher Sprache
zur weltgrößten Messe für Blinden- und Sehbehinderten-
Hilfsmittel mit Fachvorträgen,
Interviews und Innovationen für mehr Inklusion.
Der Vortrags-
Mitschnitt des SightCity Forum 2025 vom 21.05.
um 15 Uhr 45.
Das Thema: KI und Barrierefreiheit.
Referenten sind Domingos de Oliveira
und Sophie Johanning.
So, dann starten wir mit dem nächsten Beitrag,
und zwar das Thema KI
und Barrierefreiheit.
Da ist uns jetzt online zugeschaltet
Herr Domingos de Oliveira.
Ich hoffe, ich hab's richtig ausgesprochen auch.
Ich freue mich,
dass Sie heute auch digital zugeschaltet sind.
Ich würde jetzt gleich an Sie abgeben,
sodass wir die Zeit auch ganz sinnvoll nutzen.
Vielen Dank erstmal
für die Möglichkeit,
ja auch online zugeschaltet zu sein.
Ich wollte eigentlich vor Ort sein,
aber das hat aus physischen Gründen nicht geklappt.
Ich hab ein kleines Malheur gehabt und
freue mich aber trotzdem, über das Thema
Blindheit
und KI und digitale Barrierefreiheit zu berichten.
Ich selber bin von Geburt an blind
mit einem kleinen Sehrest
und beschäftige mich ganz viel mit dem Thema KI,
jetzt vor allem in privater Hinsicht.
Beruflich bin ich
Experte für digitale Barrierefreiheit.
Das heißt, ich helfe Unternehmen und Behörden,
ihre Webseiten oder digitalen Angebote
barrierefrei zu gestalten.
Bin aber heute eher als
selbstbetroffene Person dabei.
Für die Blinden und Sehbehinderten unter Ihnen:
Ich hab eine kleine Präsentation mitgebracht,
das ist aber im Wesentlichen Text und Bilder.
Also Sie verpassen da nichts und ich werde natürlich
versuchen, das Ganze zu verbalisieren.
Ich hab drei Teile:
Erstmal möchte ich darüber sprechen,
was heute bereits
technisch möglich ist oder was auch viele
Leute anwenden in der Praxis.
Dann möchte ich über Probleme
und Herausforderungen sprechen und einen kurzen Blick
auf mögliche Lösungen werfen.
Schauen wir uns einmal ganz kurz an,
was heute schon möglich ist
technologisch.
Eine Möglichkeit,
die glaub ich viele Menschen nutzen,
die einen guten Zugang zu Computern
haben oder Smartphones,
ist die
Generierung von automatischen Bildbeschreibungen.
Das geht ja mit den üblichen Technologien,
also ChatGPT oder Gemini geht das ja schon ganz gut.
Da haben Sie ja die Möglichkeit,
auch als sehende Person natürlich, Bilder hochzuladen
und dann sich beschreiben zu lassen,
was ja extrem interessant ist, weil wir ja
sehr viel mit Bildern zu tun haben
heute im beruflichen Kontext, vor allem
auch mit komplexen Bildern,
Details, auch umfangreiche Beschreibungen erfordern.
Das ist ja ganz spannend, diese Möglichkeit zu haben,
nicht immer von einer jeden Person
abhängig zu sein,
die einem die Bilder dann auch im Detail beschreibt
und auch geduldig auf alle Details eingeht,
die man in diesem Moment braucht und auch auf
Nachfragen antworten kann. Das kann ja diese ChatGPT und so weiter,
und das sind Mitarbeiterinnen
nicht immer oder Kolleginnen
nicht immer dazu bereit oder haben die Zeit dafür.
Das ist also eine ganz spannende Möglichkeit und natürlich auch
auf Smartphones
gibt es diese Möglichkeit,
zum Beispiel mit SeeingAI
oder Be My AI und so weiter.
Es gibt ja ganz viele Apps mittlerweile,
die ja auch von vielen blinden Menschen genutzt werden,
gibt's ja ganz viele Apps mittlerweile,
die ja auch von vielen blinden Menschen genutzt werden.
Und das ist auf jeden Fall ein ganz großer Vorsprung,
weil wir dann zum Beispiel Bilder aus WhatsApp
oder Social Media
uns beschreiben lassen können,
die ja ganz häufig nicht beschrieben sind.
Ich will auch direkt aber auch
mögliche Probleme eingehen.
Und hier gibt es zwei große Problembereiche:
Das eine ist, dass eine Person,
die gar keinen
Sehrest hat oder keinen nutzbaren Sehrest,
natürlich nicht beurteilen kann,
wie korrekt die Beschreibung ist.
Die KIs haben ja immer so die Eigenschaft,
immer zu sagen,
sehr sehr
überzeugt zu klingen.
Also es klingt so, als ob es richtig wäre,
aber man weiß halt nicht, ist es jetzt richtig,
ist es komplett falsch, ist es halb richtig?
Das ist eine große Herausforderung.
Bei Social Media
kann man drüber diskutieren,
ist es jetzt schlimm, wenn es nicht ganz korrekt ist?
Aber gerade
im beruflichen Kontext oder im Bildungskontext,
wenn da eine Beschreibung nicht korrekt ist,
dann kann man gegebenenfalls nichts damit anfangen
oder macht halt
irgendwas falsch.
Das zweite Thema ist natürlich der Datenschutz.
Die Bilder werden ja
oder die Modelle,
die wir heute nutzen, werden ja in der Regel von
nicht-EU-Unternehmen betrieben.
Das heißt, da werden Bilder meistens irgendwohin
transferiert,
und wir wissen nicht, was mit den Bildern passiert
oder was mit den
Beschreibungen passiert.
Und nehmen wir mal irgendwelche
persönlichen Informationen:
Wenn ich da meine Kontoauszüge reingebe oder mein
Corona-Test oder was auch immer,
möchte ich, dass die,
dass die, dass die KIs wissen
oder die Betreiber davon,
welche Erkrankung ich habe oder wie viel Geld
ich habe und wo mein Konto ist und so weiter?
Die zweite Möglichkeit, die ich heute aufgreifen
möchte, ist
das Thema Erkennung von Umgebungen.
Auch das geht ja mittlerweile recht gut,
also mit SeeingAI zum Beispiel kann man sich
Umgebungen, Szenarien
sich relativ gut beschreiben lassen.
Also stellen Sie sich vor,
Sie sitzen im Park und suchen nach einer Bank.
Dann machen Sie ein Foto
und die KI
kann Ihnen da beschreiben:
Die Bank befindet sich auf Ihrer rechten Seite,
also innerhalb des
Sehbereichs sozusagen.
Und dann können Sie halt sich zu der Bank begeben
und sich dort hinsetzen.
Oder die Bank kann Ihnen,
die App
kann Ihnen auch sagen,
ob die Bank frei ist oder besetzt ist.
Und das funktioniert teilweise ganz präzise.
Also sie kann auch Räume,
die man reingeht, beschreiben
und sagen, was da alles drinne ist zum Beispiel,
oder einen Gegenstand, den man nicht identifizieren konnte.
Auch Produkt-
Lebensmittel-Identifizierung ist ganz gut möglich,
und da gibt's auch ein paar Apps,
die sowas schon recht gut können und auch
mittlerweile mit einer relativ guten Geschwindigkeit.
In den USA gibt es diese
Brille von Meta und Ray Ban.
Meta ist das Unternehmen hinter Facebook
zum Beispiel.
Die gibt es in den USA und die hat auch
KI-Funktionen integriert.
Die ist unter blinden Amerikanern sehr beliebt,
also die scheint da einiges zu leisten.
Die Brille selber ist zwar in Deutschland verfügbar,
aber meines Wissens sind die KI-Funktionen
noch nicht in Deutschland verfügbar.
Eine große Sache ist ja,
dass solche Erkennungen komplett
richtig oder falsch sein können,
und auch hier ist ja durchaus eine Gefahr vorhanden.
Wenn ich zum Beispiel,
oder das hab ich deutlich gelesen,
dass jemand gesagt hat,
die Brille hat
es komplett falsch rum erkannt.
Also sie hat den Bürgersteig als Straße
und die Straße als Bürgersteig erkannt.
Und so ist es natürlich ein Problem,
wenn man sowas für die Orientierungshilfe einsetzt.
Das ist ja dann fast lebensgefährlich für blinde
Menschen.
Das ist das eine Problem.
Das zweite Problem ist natürlich, dass es
teilweise relativ langsam sein kann.
Also wir sind weit weg davon,
dass es in Echtzeit passiert,
also in dem Moment, in dem ich das Foto aufnehme,
sondern es ist immer noch eine Verzögerung drin.
Und gerade wenn ich mich bewege,
dann
kann so eine Verzögerung von 1-2 Sekunden oder mehrere
Sekunden durchaus schon schwierig sein.
Und natürlich das Thema Datenschutz, das ist immer eine
unsere Herausforderung.
Es gibt ja auch noch viel mehr
Sachen, die von
vielen blinden Menschen verwendet werden.
Es gibt zum Beispiel
einen intelligenten Blindenstock in den USA.
Ich will jetzt die Marke nicht nennen, der
viele Möglichkeiten beherrschen soll,
viele KI-basierte Hinderniserkennung und so weiter.
Ich weiß ehrlich gesagt nicht, ob das
ob die Versprechen alle haltbar sind,
aber zumindest wird es versprochen, dass er das kann.
Was auch geht, ist zum Beispiel die automatische
Audiodeskription von Videos.
Es geht zum Beispiel mit Zegen AI oder Pixybot.
Pixybot ist eine App, die auch von einem,
ich glaub von einem US-Amerikaner entwickelt wird,
und ganz viele von diesen Modellen
integriert hat und ganz spannende
Funktionen hat.
Also das Vorzeige-Produkt eigentlich, was KI
und Barrierefreiheit für blinde Menschen angeht.
Und ist natürlich ganz cool,
es gibt ganz viele kreative Möglichkeiten für
blinde Menschen.
Gibt zum Beispiel ganz viele Menschen, die Suno
AI oder ähnliche Dienste nutzen.
Das sind Services,
mit denen man Musik so
ein Stück weit selber erstellen kann.
Also man kann Stile auswählen,
man kann Instrumente auswählen,
man kann Lyrics, also
Texte reinspeichern und dann
kreiert das Tool einen Song daraus. Das
machen auch ganz viele blinde Menschen aus den USA.
Und das ist natürlich super spannend für uns.
Vielleicht ein kleines Zwischenfazit:
Wir sind tatsächlich
am Anfang der Entwicklung und nicht am Ende.
Das ist vielleicht die banalste Feststellung,
aber man muss es ja sagen.
Also es gibt fast jeden Tag irgendwie neue
Modelle, neue Möglichkeiten,
die dann schneller sind und
besser in der Beschreibung sind und noch
noch mehr Funktionen bereitstellen.
Das Tempo ist unglaublich in diesem Bereich,
also selbst für mich,
der sich relativ häufig damit beschäftigt,
ist es schwierig, da
auf dem Laufenden zu bleiben.
Ich glaube auch persönlich, dass KI
tatsächlich der größte
Innovationstreiber ist für assistive Technologien
seitdem
und seitdem das Smartphone für
für blinde Menschen zugänglich geworden ist,
also seit dem iPhone 3GS,
das ja das erste iPhone war,
was mit Sprachausgabe ausgestattet war.
Das hat ja auch eine große
Entwicklung bei Hilfsmitteln ausgelöst.
Aber die KI hat dann noch mal einen
ganz anderen Drive reingebracht.
Und man muss einfach gespannt sein,
was da noch alles kommen wird.
Da wird auf jeden Fall noch sehr viel kommen,
und wie gesagt,
wir sind am Anfang und nicht
in der Mitte der Entwicklung,
schon gar nicht am Ende.
Dann möchte ich über die Probleme und Herausforderungen
sprechen, die aus meiner Sicht in dem Bereich bestehen.
Eine große Herausforderung ist das, was man im
Englischen Gap nennt,
also die Spaltung zwischen den Menschen,
die die Technik benutzen können,
und den Menschen, die es nicht können.
Also nicht die Leute, die es nicht wollen,
die gibt es auch.
Es gibt viele Leute, die einfach sagen,
ist mir zu unsicher.
Oder ich brauche es einfach nicht.
Das ist ja alles in Ordnung.
Aber es gibt ja die Leute, die es nutzen wollen,
aber nicht können,
weil ihnen die technischen Fähigkeiten fehlen.
Und gerade
diese Gruppe könnte ja extrem davon profitieren,
wenn sie den Zugang zu dieser Technik hat.
Das heißt, das ist relativ schwierig
und eine wachsende Herausforderung.
Also wir haben die blinden Menschen,
die technisch relativ fit sind,
die wahrscheinlich
vorher schon ganz gut mit Smartphones
und Computern umgehen konnten
und fit sind mit ihren Screenreadern.
Und wir haben die Leute,
die von dieser Entwicklung
ausgeschlossen sind und dementsprechend
auch von diesen
neuen Möglichkeiten nicht profitieren können.
Und das seh ich tatsächlich als ganz große
Herausforderung,
weil gerade die Leute
wahrscheinlich am ehesten
von der Technik profitieren könnten,
die am wenigsten Zugang dazu haben,
weil zum Beispiel die Technik zu komplex ist.
Ein Thema, dass ich schon mehrfach angesprochen habe,
ist natürlich der Datenschutz.
Datenschutz ist ein ganz wichtiges Thema.
Wie gesagt, die meisten
oder
fast alle Modelle werden außerhalb der EU betrieben.
Das heißt, sie fallen nicht unter die
Regularien zum Datenschutz.
Und man weiß nicht genau, was mit den Daten passiert.
Also man weiß
ziemlich genau, dass die großen Unternehmen
mit diesen Daten arbeiten wollen, die wir da reingeben,
also mit den Texten,
mit den Bildern und so weiter.
Und dass sie auch zur Verbesserung der Modelle
verwendet werden.
Man weiß aber nicht genau,
sind sie in der Lage, die Daten
persönlich zu speichern,
also zu einer Person?
Auch das ist ja möglich.
Das sieht man bei ChatGPT
zum Beispiel in letzter Zeit,
dass der versucht, die Person,
die da mit dem Tool chattet,
immer besser kennenzulernen,
dass er dann gezielte Rückfragen
stellt, und sie dann dazu führen,
dass man mehr Informationen über diese Person bekommt,
um das Erlebnis sozusagen zu personalisieren,
was auf der einen Seite ja ganz angenehm sein kann,
auf der anderen Seite die Frage aufwirft:
Okay, wie möchte ich, dass ChatGPT mich so genau kennt
und diese ganzen Informationen sammelt?
Weil auch hier gibt man ja teilweise
persönliche Informationen rein,
vielleicht welche Krankheit man hat und
welche Vorlieben man hat und so weiter.
Und da ist die große Frage,
was machen die jetzt eigentlich mit diesen Daten?
Und dadurch, dass man keinen richtigen
regulierten Datenschutz hat in dem Bereich,
das ist ja ganz neu,
ist es dadurch
auf jeden Fall sinnvoll,
vorsichtig zu sein mit den Daten, die man da reingibt.
Ein weiteres Problem ist das, was man im Englischen Bias
nennt, das
im Deutschen würde man glaub ich Verzerrung sagen,
die Verzerrung in den Daten.
Eine große Herausforderung
ist ja, diese Modelle sind ja tatsächlich nicht für
blinde Menschen trainiert worden.
Die machen einen ordentlichen Job in den
in den meisten Fällen,
aber die sind ja nicht darauf trainiert worden,
Bilder für blinde Menschen zu beschreiben.
Die sind nicht darauf trainiert worden,
Umgebungen für blinde Menschen zu beschreiben.
Wenn ich unterwegs bin, dann
weiß es wohl vielleicht nicht,
wie man eine Straße identifiziert
oder einen Bürgersteig identifiziert,
weil es genau dafür ja nicht trainiert wurde,
weil warum eigentlich?
Es ist ja für Sehende ausgerichtet gewesen,
das Modell. Also nicht die
die Anwendung,
sondern das Modell selber,
was dahinter steht oder was da drunter läuft.
Das ist ja speziell
für sehende Menschen oder
oder für die Allgemeinheit trainiert worden.
Das heißt, das ist sozusagen ein Abfallprodukt
jetzt noch, wenn es dann Bilder
beschreiben kann oder auch Straßen
erkennen kann und Bürgersteige oder Hindernisse
identifizieren kann.
Da sind ja die Bedarfe von Blinden
und sehenden Menschen komplett unterschiedlich.
Und das ist,
könnte auch eine größere Herausforderung sein,
dass diese Modelle
tatsächlich nicht für blinde Menschen trainiert wurden.
Aber auch die Verzerrung in den Beschreibungen
selber können schwierig sein.
Was ich ganz häufig habe, ist,
er sagt dann sowas wie "junge Frau
mit blonden Haaren" und so weiter. Was,
die blonden Haare sind natürlich okay, aber "junge Frau"
ist das schon mal eine Interpretation.
Also ist jemand mit 20 jung oder mit 30 oder mit 40?
Weiß man nicht.
Insofern ist das schon eine Adjektivierung drin,
die wir nicht immer drin haben wollen
oder die auch dazu führen kann,
dass man Bilder falsch interpretiert.
dass man Bilder falsch interpretiert.
Eine weitere Herausforderung ist das,
hab ich jetzt mehrfach gesagt,
dass die Korrektheit von Beschreibungen für blinde
Menschen in der Regel nicht überprüfbar ist.
Das heißt,
wenn ich da keine sehende Person an meiner Seite habe,
und das hab ich ja in der Regel nicht jederzeit,
dann kann ich nicht beurteilen,
wenn ich auf das Bild
oder auf die Beschreibung drauf gucke,
ist diese Beschreibung tatsächlich korrekt
oder ist die
teilweise korrekt oder ist die vollkommen falsch?
Alles kann zutreffen.
Also es kann komplett falsch sein bei einem Bild
und es kann komplett richtig sein
oder es kann halt entscheidende Informationen weglassen,
die ich aber benötige.
Und das Gleiche natürlich,
wenn ich mir Umgebungen beschreiben lasse
oder wenn ich automatisch eine Audiodeskription
erstellen lasse.
Bei einer menschlich generierten Audiodeskription,
da sind die Leute ja darauf trainiert,
die Erstellenden,
dass sie gucken,
diese und jene Aspekte sind wichtig für das Video.
Die muss ich beschreiben.
Und diese Aspekte sind nicht wichtig,
die kann ich weglassen.
Eine KI ist dann Fluch und Segen.
Die kann einerseits Dinge beschreiben,
die unwichtig sind oder
Dinge weglassen, die wichtig sind.
Und als blinde Person kann ich das in der Regel
nicht verifizieren,
ob diese Beschreibungen oder die Informationen
zutreffend sind oder nicht.
Das ist eine größere Herausforderung, wo
ich noch nicht so genau weiß,
wie wir damit umgehen sollen.
Ein Thema, dass ich auch gerne aufgreifen möchte,
ist das häufig übertriebene
Marketing bei vielen
ja, bei vielen Anbietern.
Also sie versprechen häufig Dinge,
die sie nicht halten können.
Das sind, ich darf ja keine Anbieter nennen
oder ich möchte auch keine Anbieter nennen,
aber es gibt ja so Tools, die einfach sehr viel,
sehr viele Dinge versprechen,
dass sie Gesichter erkennen können, dass sie Texte,
dass man sich die Zeitung
vorlesen lassen kann und so weiter,
dass sie den Blindenstock ersetzen
oder ich weiß nicht was alles.
Also man hat ja die absurdesten Sachen
in den letzten Jahren gehört.
Aber in der Regel könnten diese Dinge nicht
erfüllen oder nicht
vollständig erfüllen
oder nur unter optimalen Laborbedingungen.
Die hat man normalerweise
draußen nicht, wenn man unterwegs ist oder zu Hause,
wo auch immer.
Und das ist immer wieder die Gefahr, dass die Leute
aus Marketing-
Gründen einfach zu stark übertreiben.
Klappern gehört natürlich zum Handwerk,
also dass ich beschreibe,
was ich
tun kann und vielleicht auch ein bisschen übertreibe im
Rahmen der Möglichkeiten.
Aber sobald ich irgendwelche Dinge verspreche wie
"der Blindenstock wird überflüssig"
Der Blindenstock wird überflüssig
oder der Blindenführhund wird überflüssig.
Das ist natürlich Unsinn und da muss man auch immer
nüchtern bleiben und wirklich gucken,
was kann das Tool wirklich leisten
und das dann auch gegebenenfalls ausprobieren,
ob es in der jeweiligen Lebenssituation
passt. Ich muss noch kurz husten.
Dann kommen wir zum letzten Teil in der Frage:
Was müssen wir oder was sollten wir unternehmen?
Die erste Aufgabe ist wirklich, glaube ich, aus meiner Sicht,
dass wir KI-Modelle
speziell für blinde Personen trainieren müssen.
Ich weiß nicht, ob Sie alle wissen, wie so
ein KI-Modell heutzutage funktioniert.
In der Regel ist es so, dass diese KI-Modelle
Millionen von oder Milliarden von Datensätzen bekommen,
auf die sie trainiert werden,
wo sie dann zum Beispiel lernen,
eine Katze von einem Hund zu unterscheiden
oder alle möglichen Dinge,
die
damit sie solche Funktionalitäten erfüllen können.
Und das Problem ist wie gesagt,
dass die KI-Modelle, die wir heute verwenden,
in der Regel nicht für
blinde Menschen trainiert wurden.
Das heißt, da hat jemand ein Modell genommen,
was es schon gibt, und
und hat dann eine App drumherum gebastelt
und hat dann gesagt:
Ich möchte diese und jene Funktionen haben.
Aber die Modelle selber sind nicht trainiert.
Und jetzt,
was fängt jetzt langsam damit an? Ich glaube,
Be My Eyes möchte jetzt
stärker in diese Richtung gehen,
dass sie versuchen, Videos
zu speichern und für das Training zu verwenden,
was teilweise auch kritisch gesehen wurde von
aus der Community.
Aber es ist tatsächlich so,
dass es
einfach für blinde Menschen nicht genug Daten gibt.
Es gibt nicht genug Videos oder
Dokumente oder was auch immer
von blinden Menschen oder die über die Probleme
von blinden Menschen handeln.
Und das wäre aber notwendig,
damit die Zwecke oder die Bedarfe blinder Menschen
tatsächlich erfüllt werden durch die Modelle.
Wie das zu bewerkstelligen ist,
das weiß ich ehrlich gesagt noch nicht.
Das ist auf jeden Fall eine große Herausforderung,
die entsprechenden Daten zu gewinnen.
Aber man braucht sie tatsächlich,
um diese Modelle dann vernünftig zu optimieren.
Das nächste Thema ist:
Die Modelle laufen ja heutzutage
eigentlich immer in der Cloud,
also online.
Und das hat verschiedene Herausforderungen.
Man sollte versuchen,
die Modelle wirklich lokal auf dem
auf dem Gerät, auf dem Smartphone
laufen zu lassen oder auf dem Computer,
weil dadurch ein paar Probleme sich von selber erledigen,
zum Beispiel das Thema Datenschutz, das
was ja hauptsächlich darauf basiert, dass die Daten
in die Cloud geschickt werden
oder ins Internet geschickt werden,
um verarbeitet zu werden.
Und wichtig wäre vielleicht,
dass die Daten tatsächlich lokal
auf den Smartphones oder Computern verarbeitet werden,
damit das nicht notwendig ist,
weil man dann eher Kontrolle über die Daten hat.
Das hat auch den Vorteil,
dass wir diese
stärkere Verzögerung,
die wir häufig haben,
wenn wir eine Bildbeschreibung zum Beispiel
generieren wollen,
dass wir die vermeiden können.
Wie gesagt, es ist ja
gerade wenn es um Orientierungshilfe geht,
das muss ja in Echtzeit passieren,
also in dem Moment,
in dem ich
ein Bild mache oder die Kamera auf irgendwas richte,
soll die Beschreibung kommen.
Und sobald es da eine kleinere Verzögerung
gibt, ist es schon problematisch.
Das wäre natürlich super
für den Datenschutz
und für die Optimierung dieser Modelle.
Apple hat das ja vor. Das,
ich glaub,
die KI-Funktionen sind ja immer noch nicht ausgerollt
für Apple, die angekündigt waren.
Aber das wird natürlich das Ziel,
dass die Modelle
eher
lokal verwendet werden und nicht über die Cloud laufen.
Natürlich wäre es auch wünschenswert,
dass man Modelle verwendet, die den Datenschutz
ernster nehmen
als die
nicht europäischen Akteure.
Da gibt es ja auch welche, also Open Source
oder Modelle, die
in der EU gehostet werden.
Das wäre natürlich auch wünschenswert.
Ein weiteres Thema ist aus meiner Sicht, dass Modelle
mit Unsicherheit umgehen sollten.
Was meine ich damit? Dass Modelle beurteilen können
sollten, können sollten,
wie korrekt ihre Beschreibung ist.
Ich hab ja vorhin gesagt, die Modelle neigen dazu,
immer zu sagen:
Das ist genau die richtige Beschreibung dieses Bildes.
Also die sagen nicht:
Diese Beschreibung ist zu 30 Prozent adäquat
oder zu 50 oder zu 70 Prozent,
sondern die sagen einfach,
die geben einfach die Beschreibung raus
und die klingt dann auch so,
als ob sie stimmig wäre.
Aber das heißt nicht, dass sie korrekt sein muss.
Und das wäre glaube ich extrem wichtig für blinde
Menschen, dass so eine KI
mit Unsicherheit umgehen kann
oder Unsicherheit beschreiben kann und sagen kann:
Die Beschreibung trifft zu
zu 50 Prozent.
Vielleicht fragst du doch lieber jemanden danach.
Oder man verwendet halt verschiedene KI-Modelle,
um sich eine Beschreibung generieren zu lassen,
weil das die Sicherheit sozusagen erhöhen würde.
Und schließlich halte ich auch die
halte ich es auch für notwendig, dass blinde Menschen
trainiert werden, mit der KI umzugehen.
Und zwar zum einen
natürlich die Menschen, die es schon verwenden,
die vielleicht zu viel Vertrauen in die KI stecken,
obwohl da eine größere Unsicherheit drinne ist.
Aber zum anderen vor allem die Personen,
die die Technik gerne nutzen würden
und es aber bisher nicht tun,
weil ihnen der Zugang dazu fehlt,
also der Zugang im Sinne von Skills,
die Fähigkeit, die Technik zu nutzen.
Das wäre aus meiner Sicht ein ganz wichtiges Thema,
damit die Personen, die es nutzen wollen,
auch den Zugang zu diesen progressiven,
zu diesen fortschrittlichen Technologien bekommen,
um sich einfach die Lebens-,
die eigene Lebensqualität zu verbessern.
Damit bin ich durch. Gibt es Fragen aus dem Plenum?
So, gibt es hier Fragen bei uns?
Ich schau einmal rum.
Im Chat scheinen wohl Fragen aufgekommen zu sein.
Also hier ist die Frage gestellt, ob es Funktionen
bei ChatGPT gibt für Live-Fotografie oder Video.
Also es gibt
Live-Funktion tatsächlich in Gemini,
also in dem Modell, das Google verwendet.
Wenn man Android,
aktuelles Android-Gerät hat, dann geht das schon.
Also da kann man
sich live Sachen beschreiben lassen.
Bei ChatGPT,
da benutze ich die native App nicht, das müsste man
sich müsste man sich mal angucken.
Weiß ich ehrlich gesagt nicht, ob sie sowas
drin haben in der App.
Hier gibt's noch eine Wortmeldung. Moment.
Ja, erst einmal vielen Dank für den super Vortrag,
der mega interessant war. Danke dafür.
Die Frage, die gerade gestellt wurde,
ob's Live-Funktion bei der ChatGPT native App gibt,
gibt's tatsächlich.
Und zwar wenn man die Audiofunktion aktiviert,
dann kann man darüber die
Kamerafunktion auch aktivieren und kann sich dann
tatsächlich in Echtzeit die Umgebung
beschreiben lassen,
wenn man eine Tür sucht,
wenn man seine Jacke sucht
oder wenn man einfach die Umgebung
live beschrieben haben will.
Funktioniert übrigens auch sehr sehr gut, das dazu.
Danke schön.
Gibt's ja, da gibt's noch eine Frage im Moment.
Ich komm mit Mikrofon.
So, ich halt das Mikrofon mal vor Sie.
Wie kann ich mich informieren,
um ChatGPT gut zu bedienen?
Wo bekomm ich die besten Informationen her?
Ich glaube jetzt,
speziell für blinde Menschen gibt es da nichts,
also zumindest hab ich jetzt noch nichts bekommen.
Ich würde ehrlich gesagt gucken,
vielleicht Facebook-Gruppen oder WhatsApp oder so,
ob es da Gruppen gibt,
die sich speziell
damit, mit dem Thema beschäftigen
oder allgemein mit dem Thema Blindheit.
Da sind eigentlich immer Leute dabei,
die sich gut auskennen,
also bei Facebook.
Bei WhatsApp weiß ich ehrlich gesagt nicht.
Also spezielle Informationen für blinde Menschen
gibt es vielleicht, hab ich bisher
zumindestens im Deutschen noch nicht gesehen.
Okay, ich glaub, hier gibt's eine Antwort drauf.
Sorry, ich bin ein ausgebuffter Klugscheißer.
Gibt's aber tatsächlich auch, das
was Sie grad gefragt haben.
Die ProRetina bietet das an,
und zwar in Form von Seminaren.
Wenn Sie da auf die ProRetina-Internetseite gehen,
da kriegen Sie Informationen zu
Seminaren für die Anwendung von ChatGPT, wie der ganze,
das ganze Thema funktioniert und so weiter.
Gucken Sie sich da einfach mal um,
das funktioniert da.
Vielen Dank. Gibt's denn noch eine Frage?
Das funktioniert da.
Vielen Dank. Gibt's denn noch eine Frage?
Ich geh mal noch mal nach hinten und schau in den Chat.
Da wird nach einer Meinung gefragt.
Und zwar wenn wir noch einmal hochscrollen,
ohne KI wäre es noch schlechter.
Ist eine Fragestellung nach der Meinung von Ihnen.
Ob es ohne KI noch schlechter wäre.
Genau, die Frage richtig verstanden, ja, okay.
Ich weiß nicht, was schlechter sein sollte.
Also KI bietet ganz viele Möglichkeiten natürlich.
Und gerade was jetzt, ich glaub,
George hat zum Beispiel auch schon
KI-Funktionalitäten integriert
zur Bilderkennung und so weiter.
Das ist natürlich so ganz toll für Leute, die
fit sind mit Technik und
Zugang dazu haben.
Das Datenschutzthema haben wir ja schon angesprochen,
dass es da eine größere Problematik gibt.
Es kann beide Seiten haben,
also es hat viele Verbesserungen,
aber es hat natürlich auch Gefahren,
dass man sich zu sehr vielleicht auf die KI verlässt
und
manche Dinge nicht richtig beurteilt.
Das wäre höchstens die Gefahr, die
ich sehe unter Datenschutz natürlich.
Vielen Dank, vielen Dank, dass Sie dabei waren.
Besuchen Sie uns unter SightCity.net
für weitere Informationen
rund um die SightCity und das SightCity-Forum. Danke.
Haben Sie Fragen oder Anregungen,
schreiben Sie uns gerne an info@sightcity.net
oder kontaktieren Sie uns über unsere Website.