Der World Accessibility Awareness Day ist Donnerstag, also hat Apple damit begonnen Newsroom-Blog Diese Woche, um mehrere wichtige neue Barrierefreiheitsfunktionen für iPhone, Apple Watch, iPad und Mac anzukündigen.
Die Live-Untertitel-Funktion wird wahrscheinlich die am häufigsten verwendete sein, die auf iPhone, Mac und iPad verfügbar sein wird. Die Funktion zeigt live aktualisierte, KI-basierte Untertitel für Sprache, die von einer beliebigen Audioquelle auf dem Telefon kommt, unabhängig davon, ob der Benutzer ein Telefon- oder FaceTime-Gespräch führt, Videokonferenzen oder eine Social-Media-App verwendet, Medieninhalte streamt oder ein Gespräch führt mit jemand neben ihnen „.
Der Text (dessen Größe beliebig geändert werden kann) wird oben auf dem Bildschirm angezeigt und zeigt, während die Person spricht. Darüber hinaus können Mac-Benutzer Antworten eingeben und sie anderen Gesprächspartnern vorlesen lassen. Live Captions wird später in diesem Jahr auf unterstützten Geräten („iPhone 11 und höher, iPad-Modelle mit dem A12 Bionic-Chip und höher und Macs mit Apple-Silizium”) in die öffentliche Beta-Version gehen.
Es gibt auch eine Türerkennungsfunktion. Leider funktioniert es nur auf iPhones und iPads mit einem Lidar-Sensor (wie dem iPhone 12 Pro, iPhone 13 Pro oder neueren iPad Pro-Modellen), aber es scheint nützlich für Menschen zu sein, die blind sind oder eine Sehbehinderung haben. Es verwendet die Kamera und Augmented-Reality-Sensoren des iPhones zusammen mit maschinellem Lernen, um Türen zu lokalisieren und den Benutzern laut mitzuteilen, wo sich die Tür befindet, ob sie offen oder geschlossen ist, wie sie geöffnet werden kann und was es für Schrift oder Aufkleber sein könnte.
Die Türerkennung wird sich der Erkennung von Personen und Fotobeschreibungen im neuen „Erkennungsmodus“ für blinde und sehbehinderte Benutzer in iOS und iPadOS anschließen. Der Apple-Blog-Beitrag erwähnte jedoch nicht, wann diese Funktion gestartet wird.
Weitere Ergänzungen zur Barrierefreiheit, von denen Apple sagt, dass sie sehr nahe sind, umfassen 20 neue Voice-Over-Sprachen, neue Handgesten auf der Apple Watch und eine Funktion, mit der Spieler Hilfe von einem „Freund“ mit einer anderen Spielkonsole annehmen können, ohne die Verbindung zu trennen. Darüber hinaus gibt es neue Siri- und Apple Books-Anpassungen, die darauf abzielen, die Zugänglichkeit für Menschen mit Behinderungen, Spracherkennungsanpassungen und Apple Watch-Bildschirmspiegelung auf dem iPhone zu erweitern – wodurch Watch-Benutzer Zugriff auf viele der auf dem iPhone verfügbaren Barrierefreiheitsfunktionen erhalten iPhone aber nicht auf der Uhr. .
Technologiebegeisterte beklagen oft, dass Smartphones (und persönliche Technologie im Allgemeinen) ohne viele aufregende neue Entwicklungen stagnieren. Aber das ist für viele Menschen mit Behinderungen weit von der Wahrheit entfernt. Google, Apple und viele Forscher und Start-ups haben große Durchbrüche erzielt und leistungsstarke neue Zugriffsfunktionen für mobile Geräte bereitgestellt.
Bilderliste von Apfel
„Bier-Geek. Der böse Ninja der Popkultur. Kaffee-Stipendiat fürs Leben. Professioneller Internet-Lehrer. Fleisch-Lehrer.“
More Stories
Wie die KI-Experten im neuen Gemini Gems-Programm von Google Ihre SEO steigern können
Leaks enthüllen den Namen und das Design des angeblichen PS5 Pro-Geräts
Apple führt mit dem neuesten iOS-Update die KI-Objektentfernung in Fotos ein