
Dieses Artikelbild ist lizenziert unter Creative Commons BY-SA 4.0 .
Wien (kobinet) "Am 13. Mai 2024 hat OpenAI ihr neuestes Sprachmodell namens GPT-4o vorgestellt. Es wird spannend!" So kündigt Markus Ladstätter vom österreichischen Online-Nachrichtendienst BIZEPS einen Beitrag an, der auf neue Möglichkeiten mit der Nutzung künstlicher Intelligenz für Assistenztechnologien hinweist. Ein Video zeigt dabei plastisch die neuen Möglichkeiten für blinde und sehbehinderte Menschen auf.
„Das neue Modell GPT-4o von OpenAI ist am 13. Mai 2024 vorgestellt worden. Es ist ein sogenanntes multimodales Modell, das heißt, es kann Text, Sprache, Bilder und Videos verarbeiten. Veröffentlicht wurde bisher nur die Sprachverarbeitung, die Bildverarbeitungsmöglichkeiten werden nach und nach freigeschalten. Spannend aber werden die audiovisuellen Möglichkeiten von Echtzeit-Sprachübersetzungen bis hin zur Live-Unterstützung. Beim Lernen soll vieles möglich sein. Aus der Barrierefreiheitsperspektive hat folgendes Video für Aufsehen gesorgt, bei dem Andy von Be My Eyes sich seine Umgebung live beschreiben lässt, also nicht – wie bisher – durch Foto machen und auf die Beschreibung warten“, heißt es im Beitrag von Markus Ladstätter.
KI und dessen Möglichkeiten bieten mir inzwischen viele Möglichkeiten.
Leider gibt es keine Unterstützung in der Heranführung an diesen neuen Möglichkeiten.
Wer alleine neue Lösungsmöglichkeiten oder Verbesserungsangebote sucht, ist meiner Meinung nach auf dem Angebotsmarkt ziemlich schnell überfordert. Vernetzung ist hier das A und O.
Und die BEdrüfnisse an digital barrierefrei Angebote vielleicht auch mal rückmelden. Bzw. Barrieren melden.