SightCity Podcast (DE)

Der deutschsprachige Teil unseres zweisprachigen Messe-Podcasts mit Fachvorträgen, Interviews und Innovationen für mehr Inklusion.

SightCity Forum 2025 - KI und Barrierefreiheit (F1091)

23.11.2025 31 min

Video zur Episode

;

Zusammenfassung & Show Notes

In dieser Folge des SightCity Podcasts präsentiert Domingos de Oliveira gemeinsam mit Sophie Johanning einen aufschlussreichen Vortrag zum Thema "KI und Barrierefreiheit". Aufgezeichnet am 21.05.2025 um 15:45 Uhr im Rahmen des SightCity Forums 2025, beleuchtet der Vortrag die aktuellen Möglichkeiten, Herausforderungen und Zukunftsperspektiven von KI-Technologien für blinde und sehbehinderte Menschen. Als selbst betroffener Experte für digitale Barrierefreiheit teilt de Oliveira wertvolle Einblicke in die praktische Anwendung von KI im Alltag sowie die damit verbundenen Chancen und Risiken.

Vortragstitel: KI und Barrierefreiheit

Referenten: Domingos de Oliveira und Sophie Johanning

Datum: 21.05.2025, 15:45 Uhr

Veranstaltung: SightCity Forum 2025

Inhalt des Vortrags:

Persönlicher Hintergrund des Referenten:
  • Von Geburt an blind mit geringem Sehrest
  • Beruflich tätig als Experte für digitale Barrierefreiheit
  • Unterstützt Unternehmen und Behörden bei der barrierefreien Gestaltung digitaler Angebote
Aktuelle KI-Anwendungen für blinde und sehbehinderte Menschen:
  • Automatische Bildbeschreibungen durch ChatGPT, Gemini und spezialisierte Apps wie SeeingAI und BeMyEye
  • Erkennung von Umgebungen und Szenarien zur Orientierungshilfe
  • Identifizierung von Produkten und Lebensmitteln
  • Meta/Ray-Ban Smart Glasses mit KI-Funktionen (bisher hauptsächlich in den USA verfügbar)
  • Intelligente Blindenstöcke mit KI-basierter Hinderniserkennung
  • Automatische Audiodeskription von Videos durch Tools wie Zegen AI und Pixybot
  • Kreative Anwendungen wie KI-gestützte Musikerstellung mit Suno AI
Herausforderungen und Probleme:
  • Digitale Spaltung zwischen technikaffinen und weniger technikversierten Nutzern
  • Datenschutzbedenken bei cloud-basierten Diensten außerhalb der EU
  • Verzerrungen (Bias) in den Trainingsdaten der KI-Modelle
  • Fehlende Überprüfbarkeit der Korrektheit von KI-Beschreibungen für blinde Menschen
  • Übertriebene Marketingversprechen von Anbietern
  • Verzögerungen bei der Echtzeitverarbeitung
Lösungsansätze:
  • Entwicklung spezieller KI-Modelle, die für die Bedürfnisse blinder Menschen trainiert werden
  • Lokale Verarbeitung auf dem Gerät statt in der Cloud für besseren Datenschutz und schnellere Reaktionszeiten
  • Nutzung von Modellen, die mit Unsicherheit umgehen können und ihre Zuverlässigkeit kommunizieren
  • Schulungen für blinde Menschen zum kompetenten Umgang mit KI-Technologien
Fazit:
  • KI ist der größte Innovationstreiber für assistive Technologien seit der Einführung zugänglicher Smartphones
  • Wir stehen erst am Anfang der Entwicklung mit enormem Potenzial
  • Notwendig ist ein ausgewogener Ansatz, der Chancen nutzt und Risiken minimiert

Rechtlicher Hinweis
Dieser Mitschnitt wurde während der SightCity 2025 aus den Online Ausstellervorträgen erstellt. Das Urheberrecht an den Aufnahmen liegt bei der SightCity GmbH. Jede Verwendung, Vervielfältigung oder Verbreitung durch Dritte ist ohne ausdrückliche schriftliche Genehmigung untersagt. Die Verarbeitung personenbezogener Daten erfolgt gemäß den Bestimmungen der DSGVO. Produktangaben entsprechen dem Stand der SightCity 2025; Änderungen vorbehalten; keine Gewähr für Schreib- oder Übertragungsfehler.

Über die SightCity
Die SightCity ist Europas größte Fachmesse für Blinden- und Sehbehinderten-Hilfsmittel. Mehr Informationen: www.sightcity.net

SightCity Kontakt (Allgemein)
E-Mail: info@sightcity.net
Website: https://www.sightcity.net
Social Media: Facebook, Instagram, YouTube, Threads, TikTok, WhatsApp 

Transkript

Willkommen beim SightCity Podcast, dem Podcast in deutscher Sprache zur weltgrößten Messe für Blinden- und Sehbehinderten- Hilfsmittel mit Fachvorträgen, Interviews und Innovationen für mehr Inklusion. Der Vortrags- Mitschnitt des SightCity Forum 2025 vom 21.05. um 15 Uhr 45. Das Thema: KI und Barrierefreiheit. Referenten sind Domingos de Oliveira und Sophie Johanning. So, dann starten wir mit dem nächsten Beitrag, und zwar das Thema KI und Barrierefreiheit. Da ist uns jetzt online zugeschaltet Herr Domingos de Oliveira. Ich hoffe, ich hab's richtig ausgesprochen auch. Ich freue mich, dass Sie heute auch digital zugeschaltet sind. Ich würde jetzt gleich an Sie abgeben, sodass wir die Zeit auch ganz sinnvoll nutzen. Vielen Dank erstmal für die Möglichkeit, ja auch online zugeschaltet zu sein. Ich wollte eigentlich vor Ort sein, aber das hat aus physischen Gründen nicht geklappt. Ich hab ein kleines Malheur gehabt und freue mich aber trotzdem, über das Thema Blindheit und KI und digitale Barrierefreiheit zu berichten. Ich selber bin von Geburt an blind mit einem kleinen Sehrest und beschäftige mich ganz viel mit dem Thema KI, jetzt vor allem in privater Hinsicht. Beruflich bin ich Experte für digitale Barrierefreiheit. Das heißt, ich helfe Unternehmen und Behörden, ihre Webseiten oder digitalen Angebote barrierefrei zu gestalten. Bin aber heute eher als selbstbetroffene Person dabei. Für die Blinden und Sehbehinderten unter Ihnen: Ich hab eine kleine Präsentation mitgebracht, das ist aber im Wesentlichen Text und Bilder. Also Sie verpassen da nichts und ich werde natürlich versuchen, das Ganze zu verbalisieren. Ich hab drei Teile: Erstmal möchte ich darüber sprechen, was heute bereits technisch möglich ist oder was auch viele Leute anwenden in der Praxis. Dann möchte ich über Probleme und Herausforderungen sprechen und einen kurzen Blick auf mögliche Lösungen werfen. Schauen wir uns einmal ganz kurz an, was heute schon möglich ist technologisch. Eine Möglichkeit, die glaub ich viele Menschen nutzen, die einen guten Zugang zu Computern haben oder Smartphones, ist die Generierung von automatischen Bildbeschreibungen. Das geht ja mit den üblichen Technologien, also ChatGPT oder Gemini geht das ja schon ganz gut. Da haben Sie ja die Möglichkeit, auch als sehende Person natürlich, Bilder hochzuladen und dann sich beschreiben zu lassen, was ja extrem interessant ist, weil wir ja sehr viel mit Bildern zu tun haben heute im beruflichen Kontext, vor allem auch mit komplexen Bildern, Details, auch umfangreiche Beschreibungen erfordern. Das ist ja ganz spannend, diese Möglichkeit zu haben, nicht immer von einer jeden Person abhängig zu sein, die einem die Bilder dann auch im Detail beschreibt und auch geduldig auf alle Details eingeht, die man in diesem Moment braucht und auch auf Nachfragen antworten kann. Das kann ja diese ChatGPT und so weiter, und das sind Mitarbeiterinnen nicht immer oder Kolleginnen nicht immer dazu bereit oder haben die Zeit dafür. Das ist also eine ganz spannende Möglichkeit und natürlich auch auf Smartphones gibt es diese Möglichkeit, zum Beispiel mit SeeingAI oder Be My AI und so weiter. Es gibt ja ganz viele Apps mittlerweile, die ja auch von vielen blinden Menschen genutzt werden, gibt's ja ganz viele Apps mittlerweile, die ja auch von vielen blinden Menschen genutzt werden. Und das ist auf jeden Fall ein ganz großer Vorsprung, weil wir dann zum Beispiel Bilder aus WhatsApp oder Social Media uns beschreiben lassen können, die ja ganz häufig nicht beschrieben sind. Ich will auch direkt aber auch mögliche Probleme eingehen. Und hier gibt es zwei große Problembereiche: Das eine ist, dass eine Person, die gar keinen Sehrest hat oder keinen nutzbaren Sehrest, natürlich nicht beurteilen kann, wie korrekt die Beschreibung ist. Die KIs haben ja immer so die Eigenschaft, immer zu sagen, sehr sehr überzeugt zu klingen. Also es klingt so, als ob es richtig wäre, aber man weiß halt nicht, ist es jetzt richtig, ist es komplett falsch, ist es halb richtig? Das ist eine große Herausforderung. Bei Social Media kann man drüber diskutieren, ist es jetzt schlimm, wenn es nicht ganz korrekt ist? Aber gerade im beruflichen Kontext oder im Bildungskontext, wenn da eine Beschreibung nicht korrekt ist, dann kann man gegebenenfalls nichts damit anfangen oder macht halt irgendwas falsch. Das zweite Thema ist natürlich der Datenschutz. Die Bilder werden ja oder die Modelle, die wir heute nutzen, werden ja in der Regel von nicht-EU-Unternehmen betrieben. Das heißt, da werden Bilder meistens irgendwohin transferiert, und wir wissen nicht, was mit den Bildern passiert oder was mit den Beschreibungen passiert. Und nehmen wir mal irgendwelche persönlichen Informationen: Wenn ich da meine Kontoauszüge reingebe oder mein Corona-Test oder was auch immer, möchte ich, dass die, dass die, dass die KIs wissen oder die Betreiber davon, welche Erkrankung ich habe oder wie viel Geld ich habe und wo mein Konto ist und so weiter? Die zweite Möglichkeit, die ich heute aufgreifen möchte, ist das Thema Erkennung von Umgebungen. Auch das geht ja mittlerweile recht gut, also mit SeeingAI zum Beispiel kann man sich Umgebungen, Szenarien sich relativ gut beschreiben lassen. Also stellen Sie sich vor, Sie sitzen im Park und suchen nach einer Bank. Dann machen Sie ein Foto und die KI kann Ihnen da beschreiben: Die Bank befindet sich auf Ihrer rechten Seite, also innerhalb des Sehbereichs sozusagen. Und dann können Sie halt sich zu der Bank begeben und sich dort hinsetzen. Oder die Bank kann Ihnen, die App kann Ihnen auch sagen, ob die Bank frei ist oder besetzt ist. Und das funktioniert teilweise ganz präzise. Also sie kann auch Räume, die man reingeht, beschreiben und sagen, was da alles drinne ist zum Beispiel, oder einen Gegenstand, den man nicht identifizieren konnte. Auch Produkt- Lebensmittel-Identifizierung ist ganz gut möglich, und da gibt's auch ein paar Apps, die sowas schon recht gut können und auch mittlerweile mit einer relativ guten Geschwindigkeit. In den USA gibt es diese Brille von Meta und Ray Ban. Meta ist das Unternehmen hinter Facebook zum Beispiel. Die gibt es in den USA und die hat auch KI-Funktionen integriert. Die ist unter blinden Amerikanern sehr beliebt, also die scheint da einiges zu leisten. Die Brille selber ist zwar in Deutschland verfügbar, aber meines Wissens sind die KI-Funktionen noch nicht in Deutschland verfügbar. Eine große Sache ist ja, dass solche Erkennungen komplett richtig oder falsch sein können, und auch hier ist ja durchaus eine Gefahr vorhanden. Wenn ich zum Beispiel, oder das hab ich deutlich gelesen, dass jemand gesagt hat, die Brille hat es komplett falsch rum erkannt. Also sie hat den Bürgersteig als Straße und die Straße als Bürgersteig erkannt. Und so ist es natürlich ein Problem, wenn man sowas für die Orientierungshilfe einsetzt. Das ist ja dann fast lebensgefährlich für blinde Menschen. Das ist das eine Problem. Das zweite Problem ist natürlich, dass es teilweise relativ langsam sein kann. Also wir sind weit weg davon, dass es in Echtzeit passiert, also in dem Moment, in dem ich das Foto aufnehme, sondern es ist immer noch eine Verzögerung drin. Und gerade wenn ich mich bewege, dann kann so eine Verzögerung von 1-2 Sekunden oder mehrere Sekunden durchaus schon schwierig sein. Und natürlich das Thema Datenschutz, das ist immer eine unsere Herausforderung. Es gibt ja auch noch viel mehr Sachen, die von vielen blinden Menschen verwendet werden. Es gibt zum Beispiel einen intelligenten Blindenstock in den USA. Ich will jetzt die Marke nicht nennen, der viele Möglichkeiten beherrschen soll, viele KI-basierte Hinderniserkennung und so weiter. Ich weiß ehrlich gesagt nicht, ob das ob die Versprechen alle haltbar sind, aber zumindest wird es versprochen, dass er das kann. Was auch geht, ist zum Beispiel die automatische Audiodeskription von Videos. Es geht zum Beispiel mit Zegen AI oder Pixybot. Pixybot ist eine App, die auch von einem, ich glaub von einem US-Amerikaner entwickelt wird, und ganz viele von diesen Modellen integriert hat und ganz spannende Funktionen hat. Also das Vorzeige-Produkt eigentlich, was KI und Barrierefreiheit für blinde Menschen angeht. Und ist natürlich ganz cool, es gibt ganz viele kreative Möglichkeiten für blinde Menschen. Gibt zum Beispiel ganz viele Menschen, die Suno AI oder ähnliche Dienste nutzen. Das sind Services, mit denen man Musik so ein Stück weit selber erstellen kann. Also man kann Stile auswählen, man kann Instrumente auswählen, man kann Lyrics, also Texte reinspeichern und dann kreiert das Tool einen Song daraus. Das machen auch ganz viele blinde Menschen aus den USA. Und das ist natürlich super spannend für uns. Vielleicht ein kleines Zwischenfazit: Wir sind tatsächlich am Anfang der Entwicklung und nicht am Ende. Das ist vielleicht die banalste Feststellung, aber man muss es ja sagen. Also es gibt fast jeden Tag irgendwie neue Modelle, neue Möglichkeiten, die dann schneller sind und besser in der Beschreibung sind und noch noch mehr Funktionen bereitstellen. Das Tempo ist unglaublich in diesem Bereich, also selbst für mich, der sich relativ häufig damit beschäftigt, ist es schwierig, da auf dem Laufenden zu bleiben. Ich glaube auch persönlich, dass KI tatsächlich der größte Innovationstreiber ist für assistive Technologien seitdem und seitdem das Smartphone für für blinde Menschen zugänglich geworden ist, also seit dem iPhone 3GS, das ja das erste iPhone war, was mit Sprachausgabe ausgestattet war. Das hat ja auch eine große Entwicklung bei Hilfsmitteln ausgelöst. Aber die KI hat dann noch mal einen ganz anderen Drive reingebracht. Und man muss einfach gespannt sein, was da noch alles kommen wird. Da wird auf jeden Fall noch sehr viel kommen, und wie gesagt, wir sind am Anfang und nicht in der Mitte der Entwicklung, schon gar nicht am Ende. Dann möchte ich über die Probleme und Herausforderungen sprechen, die aus meiner Sicht in dem Bereich bestehen. Eine große Herausforderung ist das, was man im Englischen Gap nennt, also die Spaltung zwischen den Menschen, die die Technik benutzen können, und den Menschen, die es nicht können. Also nicht die Leute, die es nicht wollen, die gibt es auch. Es gibt viele Leute, die einfach sagen, ist mir zu unsicher. Oder ich brauche es einfach nicht. Das ist ja alles in Ordnung. Aber es gibt ja die Leute, die es nutzen wollen, aber nicht können, weil ihnen die technischen Fähigkeiten fehlen. Und gerade diese Gruppe könnte ja extrem davon profitieren, wenn sie den Zugang zu dieser Technik hat. Das heißt, das ist relativ schwierig und eine wachsende Herausforderung. Also wir haben die blinden Menschen, die technisch relativ fit sind, die wahrscheinlich vorher schon ganz gut mit Smartphones und Computern umgehen konnten und fit sind mit ihren Screenreadern. Und wir haben die Leute, die von dieser Entwicklung ausgeschlossen sind und dementsprechend auch von diesen neuen Möglichkeiten nicht profitieren können. Und das seh ich tatsächlich als ganz große Herausforderung, weil gerade die Leute wahrscheinlich am ehesten von der Technik profitieren könnten, die am wenigsten Zugang dazu haben, weil zum Beispiel die Technik zu komplex ist. Ein Thema, dass ich schon mehrfach angesprochen habe, ist natürlich der Datenschutz. Datenschutz ist ein ganz wichtiges Thema. Wie gesagt, die meisten oder fast alle Modelle werden außerhalb der EU betrieben. Das heißt, sie fallen nicht unter die Regularien zum Datenschutz. Und man weiß nicht genau, was mit den Daten passiert. Also man weiß ziemlich genau, dass die großen Unternehmen mit diesen Daten arbeiten wollen, die wir da reingeben, also mit den Texten, mit den Bildern und so weiter. Und dass sie auch zur Verbesserung der Modelle verwendet werden. Man weiß aber nicht genau, sind sie in der Lage, die Daten persönlich zu speichern, also zu einer Person? Auch das ist ja möglich. Das sieht man bei ChatGPT zum Beispiel in letzter Zeit, dass der versucht, die Person, die da mit dem Tool chattet, immer besser kennenzulernen, dass er dann gezielte Rückfragen stellt, und sie dann dazu führen, dass man mehr Informationen über diese Person bekommt, um das Erlebnis sozusagen zu personalisieren, was auf der einen Seite ja ganz angenehm sein kann, auf der anderen Seite die Frage aufwirft: Okay, wie möchte ich, dass ChatGPT mich so genau kennt und diese ganzen Informationen sammelt? Weil auch hier gibt man ja teilweise persönliche Informationen rein, vielleicht welche Krankheit man hat und welche Vorlieben man hat und so weiter. Und da ist die große Frage, was machen die jetzt eigentlich mit diesen Daten? Und dadurch, dass man keinen richtigen regulierten Datenschutz hat in dem Bereich, das ist ja ganz neu, ist es dadurch auf jeden Fall sinnvoll, vorsichtig zu sein mit den Daten, die man da reingibt. Ein weiteres Problem ist das, was man im Englischen Bias nennt, das im Deutschen würde man glaub ich Verzerrung sagen, die Verzerrung in den Daten. Eine große Herausforderung ist ja, diese Modelle sind ja tatsächlich nicht für blinde Menschen trainiert worden. Die machen einen ordentlichen Job in den in den meisten Fällen, aber die sind ja nicht darauf trainiert worden, Bilder für blinde Menschen zu beschreiben. Die sind nicht darauf trainiert worden, Umgebungen für blinde Menschen zu beschreiben. Wenn ich unterwegs bin, dann weiß es wohl vielleicht nicht, wie man eine Straße identifiziert oder einen Bürgersteig identifiziert, weil es genau dafür ja nicht trainiert wurde, weil warum eigentlich? Es ist ja für Sehende ausgerichtet gewesen, das Modell. Also nicht die die Anwendung, sondern das Modell selber, was dahinter steht oder was da drunter läuft. Das ist ja speziell für sehende Menschen oder oder für die Allgemeinheit trainiert worden. Das heißt, das ist sozusagen ein Abfallprodukt jetzt noch, wenn es dann Bilder beschreiben kann oder auch Straßen erkennen kann und Bürgersteige oder Hindernisse identifizieren kann. Da sind ja die Bedarfe von Blinden und sehenden Menschen komplett unterschiedlich. Und das ist, könnte auch eine größere Herausforderung sein, dass diese Modelle tatsächlich nicht für blinde Menschen trainiert wurden. Aber auch die Verzerrung in den Beschreibungen selber können schwierig sein. Was ich ganz häufig habe, ist, er sagt dann sowas wie "junge Frau mit blonden Haaren" und so weiter. Was, die blonden Haare sind natürlich okay, aber "junge Frau" ist das schon mal eine Interpretation. Also ist jemand mit 20 jung oder mit 30 oder mit 40? Weiß man nicht. Insofern ist das schon eine Adjektivierung drin, die wir nicht immer drin haben wollen oder die auch dazu führen kann, dass man Bilder falsch interpretiert. dass man Bilder falsch interpretiert. Eine weitere Herausforderung ist das, hab ich jetzt mehrfach gesagt, dass die Korrektheit von Beschreibungen für blinde Menschen in der Regel nicht überprüfbar ist. Das heißt, wenn ich da keine sehende Person an meiner Seite habe, und das hab ich ja in der Regel nicht jederzeit, dann kann ich nicht beurteilen, wenn ich auf das Bild oder auf die Beschreibung drauf gucke, ist diese Beschreibung tatsächlich korrekt oder ist die teilweise korrekt oder ist die vollkommen falsch? Alles kann zutreffen. Also es kann komplett falsch sein bei einem Bild und es kann komplett richtig sein oder es kann halt entscheidende Informationen weglassen, die ich aber benötige. Und das Gleiche natürlich, wenn ich mir Umgebungen beschreiben lasse oder wenn ich automatisch eine Audiodeskription erstellen lasse. Bei einer menschlich generierten Audiodeskription, da sind die Leute ja darauf trainiert, die Erstellenden, dass sie gucken, diese und jene Aspekte sind wichtig für das Video. Die muss ich beschreiben. Und diese Aspekte sind nicht wichtig, die kann ich weglassen. Eine KI ist dann Fluch und Segen. Die kann einerseits Dinge beschreiben, die unwichtig sind oder Dinge weglassen, die wichtig sind. Und als blinde Person kann ich das in der Regel nicht verifizieren, ob diese Beschreibungen oder die Informationen zutreffend sind oder nicht. Das ist eine größere Herausforderung, wo ich noch nicht so genau weiß, wie wir damit umgehen sollen. Ein Thema, dass ich auch gerne aufgreifen möchte, ist das häufig übertriebene Marketing bei vielen ja, bei vielen Anbietern. Also sie versprechen häufig Dinge, die sie nicht halten können. Das sind, ich darf ja keine Anbieter nennen oder ich möchte auch keine Anbieter nennen, aber es gibt ja so Tools, die einfach sehr viel, sehr viele Dinge versprechen, dass sie Gesichter erkennen können, dass sie Texte, dass man sich die Zeitung vorlesen lassen kann und so weiter, dass sie den Blindenstock ersetzen oder ich weiß nicht was alles. Also man hat ja die absurdesten Sachen in den letzten Jahren gehört. Aber in der Regel könnten diese Dinge nicht erfüllen oder nicht vollständig erfüllen oder nur unter optimalen Laborbedingungen. Die hat man normalerweise draußen nicht, wenn man unterwegs ist oder zu Hause, wo auch immer. Und das ist immer wieder die Gefahr, dass die Leute aus Marketing- Gründen einfach zu stark übertreiben. Klappern gehört natürlich zum Handwerk, also dass ich beschreibe, was ich tun kann und vielleicht auch ein bisschen übertreibe im Rahmen der Möglichkeiten. Aber sobald ich irgendwelche Dinge verspreche wie "der Blindenstock wird überflüssig" Der Blindenstock wird überflüssig oder der Blindenführhund wird überflüssig. Das ist natürlich Unsinn und da muss man auch immer nüchtern bleiben und wirklich gucken, was kann das Tool wirklich leisten und das dann auch gegebenenfalls ausprobieren, ob es in der jeweiligen Lebenssituation passt. Ich muss noch kurz husten. Dann kommen wir zum letzten Teil in der Frage: Was müssen wir oder was sollten wir unternehmen? Die erste Aufgabe ist wirklich, glaube ich, aus meiner Sicht, dass wir KI-Modelle speziell für blinde Personen trainieren müssen. Ich weiß nicht, ob Sie alle wissen, wie so ein KI-Modell heutzutage funktioniert. In der Regel ist es so, dass diese KI-Modelle Millionen von oder Milliarden von Datensätzen bekommen, auf die sie trainiert werden, wo sie dann zum Beispiel lernen, eine Katze von einem Hund zu unterscheiden oder alle möglichen Dinge, die damit sie solche Funktionalitäten erfüllen können. Und das Problem ist wie gesagt, dass die KI-Modelle, die wir heute verwenden, in der Regel nicht für blinde Menschen trainiert wurden. Das heißt, da hat jemand ein Modell genommen, was es schon gibt, und und hat dann eine App drumherum gebastelt und hat dann gesagt: Ich möchte diese und jene Funktionen haben. Aber die Modelle selber sind nicht trainiert. Und jetzt, was fängt jetzt langsam damit an? Ich glaube, Be My Eyes möchte jetzt stärker in diese Richtung gehen, dass sie versuchen, Videos zu speichern und für das Training zu verwenden, was teilweise auch kritisch gesehen wurde von aus der Community. Aber es ist tatsächlich so, dass es einfach für blinde Menschen nicht genug Daten gibt. Es gibt nicht genug Videos oder Dokumente oder was auch immer von blinden Menschen oder die über die Probleme von blinden Menschen handeln. Und das wäre aber notwendig, damit die Zwecke oder die Bedarfe blinder Menschen tatsächlich erfüllt werden durch die Modelle. Wie das zu bewerkstelligen ist, das weiß ich ehrlich gesagt noch nicht. Das ist auf jeden Fall eine große Herausforderung, die entsprechenden Daten zu gewinnen. Aber man braucht sie tatsächlich, um diese Modelle dann vernünftig zu optimieren. Das nächste Thema ist: Die Modelle laufen ja heutzutage eigentlich immer in der Cloud, also online. Und das hat verschiedene Herausforderungen. Man sollte versuchen, die Modelle wirklich lokal auf dem auf dem Gerät, auf dem Smartphone laufen zu lassen oder auf dem Computer, weil dadurch ein paar Probleme sich von selber erledigen, zum Beispiel das Thema Datenschutz, das was ja hauptsächlich darauf basiert, dass die Daten in die Cloud geschickt werden oder ins Internet geschickt werden, um verarbeitet zu werden. Und wichtig wäre vielleicht, dass die Daten tatsächlich lokal auf den Smartphones oder Computern verarbeitet werden, damit das nicht notwendig ist, weil man dann eher Kontrolle über die Daten hat. Das hat auch den Vorteil, dass wir diese stärkere Verzögerung, die wir häufig haben, wenn wir eine Bildbeschreibung zum Beispiel generieren wollen, dass wir die vermeiden können. Wie gesagt, es ist ja gerade wenn es um Orientierungshilfe geht, das muss ja in Echtzeit passieren, also in dem Moment, in dem ich ein Bild mache oder die Kamera auf irgendwas richte, soll die Beschreibung kommen. Und sobald es da eine kleinere Verzögerung gibt, ist es schon problematisch. Das wäre natürlich super für den Datenschutz und für die Optimierung dieser Modelle. Apple hat das ja vor. Das, ich glaub, die KI-Funktionen sind ja immer noch nicht ausgerollt für Apple, die angekündigt waren. Aber das wird natürlich das Ziel, dass die Modelle eher lokal verwendet werden und nicht über die Cloud laufen. Natürlich wäre es auch wünschenswert, dass man Modelle verwendet, die den Datenschutz ernster nehmen als die nicht europäischen Akteure. Da gibt es ja auch welche, also Open Source oder Modelle, die in der EU gehostet werden. Das wäre natürlich auch wünschenswert. Ein weiteres Thema ist aus meiner Sicht, dass Modelle mit Unsicherheit umgehen sollten. Was meine ich damit? Dass Modelle beurteilen können sollten, können sollten, wie korrekt ihre Beschreibung ist. Ich hab ja vorhin gesagt, die Modelle neigen dazu, immer zu sagen: Das ist genau die richtige Beschreibung dieses Bildes. Also die sagen nicht: Diese Beschreibung ist zu 30 Prozent adäquat oder zu 50 oder zu 70 Prozent, sondern die sagen einfach, die geben einfach die Beschreibung raus und die klingt dann auch so, als ob sie stimmig wäre. Aber das heißt nicht, dass sie korrekt sein muss. Und das wäre glaube ich extrem wichtig für blinde Menschen, dass so eine KI mit Unsicherheit umgehen kann oder Unsicherheit beschreiben kann und sagen kann: Die Beschreibung trifft zu zu 50 Prozent. Vielleicht fragst du doch lieber jemanden danach. Oder man verwendet halt verschiedene KI-Modelle, um sich eine Beschreibung generieren zu lassen, weil das die Sicherheit sozusagen erhöhen würde. Und schließlich halte ich auch die halte ich es auch für notwendig, dass blinde Menschen trainiert werden, mit der KI umzugehen. Und zwar zum einen natürlich die Menschen, die es schon verwenden, die vielleicht zu viel Vertrauen in die KI stecken, obwohl da eine größere Unsicherheit drinne ist. Aber zum anderen vor allem die Personen, die die Technik gerne nutzen würden und es aber bisher nicht tun, weil ihnen der Zugang dazu fehlt, also der Zugang im Sinne von Skills, die Fähigkeit, die Technik zu nutzen. Das wäre aus meiner Sicht ein ganz wichtiges Thema, damit die Personen, die es nutzen wollen, auch den Zugang zu diesen progressiven, zu diesen fortschrittlichen Technologien bekommen, um sich einfach die Lebens-, die eigene Lebensqualität zu verbessern. Damit bin ich durch. Gibt es Fragen aus dem Plenum? So, gibt es hier Fragen bei uns? Ich schau einmal rum. Im Chat scheinen wohl Fragen aufgekommen zu sein. Also hier ist die Frage gestellt, ob es Funktionen bei ChatGPT gibt für Live-Fotografie oder Video. Also es gibt Live-Funktion tatsächlich in Gemini, also in dem Modell, das Google verwendet. Wenn man Android, aktuelles Android-Gerät hat, dann geht das schon. Also da kann man sich live Sachen beschreiben lassen. Bei ChatGPT, da benutze ich die native App nicht, das müsste man sich müsste man sich mal angucken. Weiß ich ehrlich gesagt nicht, ob sie sowas drin haben in der App. Hier gibt's noch eine Wortmeldung. Moment. Ja, erst einmal vielen Dank für den super Vortrag, der mega interessant war. Danke dafür. Die Frage, die gerade gestellt wurde, ob's Live-Funktion bei der ChatGPT native App gibt, gibt's tatsächlich. Und zwar wenn man die Audiofunktion aktiviert, dann kann man darüber die Kamerafunktion auch aktivieren und kann sich dann tatsächlich in Echtzeit die Umgebung beschreiben lassen, wenn man eine Tür sucht, wenn man seine Jacke sucht oder wenn man einfach die Umgebung live beschrieben haben will. Funktioniert übrigens auch sehr sehr gut, das dazu. Danke schön. Gibt's ja, da gibt's noch eine Frage im Moment. Ich komm mit Mikrofon. So, ich halt das Mikrofon mal vor Sie. Wie kann ich mich informieren, um ChatGPT gut zu bedienen? Wo bekomm ich die besten Informationen her? Ich glaube jetzt, speziell für blinde Menschen gibt es da nichts, also zumindest hab ich jetzt noch nichts bekommen. Ich würde ehrlich gesagt gucken, vielleicht Facebook-Gruppen oder WhatsApp oder so, ob es da Gruppen gibt, die sich speziell damit, mit dem Thema beschäftigen oder allgemein mit dem Thema Blindheit. Da sind eigentlich immer Leute dabei, die sich gut auskennen, also bei Facebook. Bei WhatsApp weiß ich ehrlich gesagt nicht. Also spezielle Informationen für blinde Menschen gibt es vielleicht, hab ich bisher zumindestens im Deutschen noch nicht gesehen. Okay, ich glaub, hier gibt's eine Antwort drauf. Sorry, ich bin ein ausgebuffter Klugscheißer. Gibt's aber tatsächlich auch, das was Sie grad gefragt haben. Die ProRetina bietet das an, und zwar in Form von Seminaren. Wenn Sie da auf die ProRetina-Internetseite gehen, da kriegen Sie Informationen zu Seminaren für die Anwendung von ChatGPT, wie der ganze, das ganze Thema funktioniert und so weiter. Gucken Sie sich da einfach mal um, das funktioniert da. Vielen Dank. Gibt's denn noch eine Frage? Das funktioniert da. Vielen Dank. Gibt's denn noch eine Frage? Ich geh mal noch mal nach hinten und schau in den Chat. Da wird nach einer Meinung gefragt. Und zwar wenn wir noch einmal hochscrollen, ohne KI wäre es noch schlechter. Ist eine Fragestellung nach der Meinung von Ihnen. Ob es ohne KI noch schlechter wäre. Genau, die Frage richtig verstanden, ja, okay. Ich weiß nicht, was schlechter sein sollte. Also KI bietet ganz viele Möglichkeiten natürlich. Und gerade was jetzt, ich glaub, George hat zum Beispiel auch schon KI-Funktionalitäten integriert zur Bilderkennung und so weiter. Das ist natürlich so ganz toll für Leute, die fit sind mit Technik und Zugang dazu haben. Das Datenschutzthema haben wir ja schon angesprochen, dass es da eine größere Problematik gibt. Es kann beide Seiten haben, also es hat viele Verbesserungen, aber es hat natürlich auch Gefahren, dass man sich zu sehr vielleicht auf die KI verlässt und manche Dinge nicht richtig beurteilt. Das wäre höchstens die Gefahr, die ich sehe unter Datenschutz natürlich. Vielen Dank, vielen Dank, dass Sie dabei waren. Besuchen Sie uns unter SightCity.net für weitere Informationen rund um die SightCity und das SightCity-Forum. Danke. Haben Sie Fragen oder Anregungen, schreiben Sie uns gerne an info@sightcity.net oder kontaktieren Sie uns über unsere Website.