蘋果宣布iOS 18無障礙功能,包括眼動追蹤、音樂觸覺、人聲快捷鍵
5 月 15 日消息,IT之家從蘋果官網獲悉,蘋果今日宣布將于今年晚些時候推出全新的輔助功能,包括眼動追蹤,可以幫助殘障用戶通過眼動來使用 iPad 或 iPhone。
此外,音樂觸覺將為聽覺受損用戶提供在 iPhone 中使用觸感引擎體驗音樂的全新方式;人聲快捷鍵讓用戶可以通過自定義聲音來執行任務;當在移動的車輛中使用 iPhone 或 iPad 時,車輛運動提示(Vehicle Motion Cues)有助于減緩暈車;visionOS 將提供更多的無障礙功能。
預計上述新功能將在 iOS 18、iPadOS 18 和 macOS 15 等更新中提供,但蘋果并沒有明確這樣表述。
IT之家附蘋果官網介紹如下:
眼動追蹤登陸 iPad 和 iPhone
由人工智能支持的眼動追蹤為用戶提供了只需雙眼即可使用 iPad 和 iPhone 的內置選項。眼動追蹤是專為殘障用戶設計的功能,只需幾秒鐘即可設置和校準前置攝像頭,并通過設備端機器學習功能,將設置和控制此功能的所有數據安全地保存在設備端,不與 Apple 共享。眼動追蹤可在 iPadOS 和 iOS 應用程序中運行,不需要額外的硬件或配件。通過眼動追蹤,用戶可以瀏覽應用程序的元素,并使用停留控制來激活每個元素,僅通過眼睛訪問其他功能,如物理按鈕、滑動和其他手勢。
音樂觸覺令更多人體驗音樂
音樂觸覺是讓聽力受損用戶在 iPhone 上體驗音樂的一種全新方式。打開此輔助功能后,iPhone 中的觸感引擎會隨著音樂播放而體現輕拍、織體和微妙振動。音樂觸覺功能適用于 Apple Music 中的數百萬首歌曲,并將作為 API 提供給開發者,使更多用戶能夠體驗他們 App 中的音樂。
更多語音新功能
iPhone 和 iPad 用戶可以通過人聲快捷鍵,為 Siri 添加自定義話語,從而啟動快捷方式并完成復雜任務。另一個新功能,傾聽非典型語音(Listen for Atypical Speech),提供了增強語音識別范圍的選項。傾聽非典型語音功能使用設備端機器學習來識別用戶的語音模式。這些功能專為因腦性麻痹、肌萎縮側索硬化癥(ALS)或中風等而影響語言功能的用戶設計,基于 iOS 17 中引入的功能,為無法言語或面臨言語能力風險的用戶提供了新的個性化和控制功能。