A Apple anunciou nesta quarta-feira (15), em antecipação ao Dia Global da Conscientização sobre Acessibilidade, uma série de recursos de acessibilidade para iPhone e iPad. As novidades incluem desde o controle do dispositivo por meio do rastreamento ocular até a criação de atalhos personalizados usando a voz, além de uma experiência musical aprimorada com o recurso “Music Haptics”.
Pela primeira vez, a Apple permite o controle de seus dispositivos sem a necessidade de hardware adicional. O rastreamento ocular integrado utiliza a câmera frontal e inteligência artificial para identificar o olhar do usuário e o gesto que deseja realizar, como tocar ou deslizar. O recurso “Dwell Control” também detecta quando o olhar do usuário se fixa em um elemento, indicando a intenção de selecioná-lo.
Os “Atalhos Vocais” aprimoram os controles de voz da Apple, permitindo que os usuários atribuam sons ou palavras para iniciar atalhos e completar tarefas. Além disso, o recurso “Listen for Atypical Speech” utiliza aprendizado de máquina para reconhecer padrões de fala únicos, auxiliando usuários com condições que afetam a fala, como paralisia cerebral, esclerose lateral amiotrófica (ELA) e AVC.
Para pessoas com deficiência auditiva, o “Music Haptics” permite experimentar milhões de músicas no Apple Music por meio de toques, texturas e vibrações. O recurso também estará disponível como uma API para que desenvolvedores de aplicativos de música possam oferecer aos usuários uma nova maneira de experimentar o áudio.
A Apple também anunciou um recurso para ajudar com enjoos em carros. Em vez de olhar para o conteúdo estático, o que pode causar enjoo, os usuários podem ativar o recurso “Vehicle Motion Cues”, que coloca pontos animados nas bordas da tela que se movem na direção do movimento.
O CarPlay também receberá atualizações, incluindo um recurso de “Controle por Voz”; “Filtros de Cores”, que oferece aos usuários daltônicos textos em negrito e maiores; e “Reconhecimento de Som” para notificar usuários surdos ou com deficiência auditiva sobre buzinas e sirenes de carros.
A Apple também revelou um recurso de acessibilidade para o visionOS, que permitirá legendas ao vivo durante chamadas do FaceTime.
Fonte: Apple