Em breve você poderá controlar seu iPhone e iPad com os olhos 13

Em breve você poderá controlar seu iPhone e iPad com os olhos

A Apple tem anunciado um monte de novos recursos de acessibilidade que chegarão ainda este ano para proprietários de iPhone e iPad. Notável entre eles é a capacidade de interagir com as interfaces iOS e iPadOS usando o movimento dos olhos, algo visto em um sistema semelhante em hardware Mac.

A empresa chama isso de Eye Tracking e é um sistema construído sobre os fundamentos do Dwell Control. Até agora, o Dwell Control está disponível como parte do teclado de acessibilidade no macOS, permitindo aos usuários executar ações do mouse usando gestos com os olhos e a cabeça.

No iPhone e no iPad, o Eye Tracking levará apenas alguns segundos para ser calibrado e funcionará usando a câmera frontal. Uma vez ativado, permitirá que usuários com deficiências físicas realizem gestos de deslizar e pressionar botões com seus movimentos oculares.

As ações de permanência também estão disponíveis para o headset Vision Pro. Na cara máquina XR, eles são incluídos como parte do sistema Assistive Touch nas configurações de acessibilidade. Em máquinas Mac, os gestos com os olhos e a cabeça permitem clicar com o mouse, arrastar e soltar e outros gestos principais de controle da IU.

Música tátil no iPhone.

Para usuários com problemas auditivos, a Apple está adicionando um recurso em iPhones chamado Music Haptics. Uma vez ativado, o Taptic Engine instalado em um iPhone produzirá vibrações sincronizadas com a reprodução da música usando uma mistura de toques rítmicos, vibrações suaves e texturas.

Esse recurso já foi certificado para os milhões de músicas da biblioteca do Apple Music. Os desenvolvedores também podem aproveitar as interfaces de programação de aplicativos (APIs) para permitir feedback de acessibilidade baseado em vibração para tornar seus aplicativos mais inclusivos e funcionalmente gratificantes para pessoas com problemas auditivos.

Atalhos vocais no iPhone.

Para pessoas que vivem com dificuldades relacionadas à fala, a Apple está adicionando alguns novos recursos aos seus telefones e tablets. O primeiro é a Fala Atípica, que conta com aprendizado de máquina para identificar a assinatura de fala única de uma pessoa para que possa ajudá-la a realizar tarefas por meio de comandos de voz.

O próximo da fila são os atalhos vocais. Este permite aos usuários gravar sinais de áudio personalizados e, em seguida, atribuí-los como atalhos para várias tarefas no dispositivo, que podem ser de etapa única ou de várias etapas. A Apple afirma que esses recursos foram “projetados para usuários com condições adquiridas ou progressivas que afetam a fala, como paralisia cerebral, esclerose lateral amiotrófica (ELA) ou acidente vascular cerebral”.

Relacionado :  Nvidia transforma prompts de texto simples em modelos 3D prontos para jogos
Dicas de movimento do veículo no iPhone.

Outro próximo recurso relacionado é o Personal Voice. Pessoas que têm dificuldade em dizer ou ler frases longas podem criar uma Voz Pessoal usando frases mais curtas.

A Apple também desenvolveu um recurso de bem-estar que leva em consideração o enjôo nas circunstâncias do veículo. O recurso em questão se chama Vehicle Motion Cues e, uma vez habilitado, mostrará pontos animados na tela que são alinhados dinamicamente com o movimento direcional do veículo. A ideia é reduzir o conflito sensorial, facilitando a leitura do conteúdo na tela pelos usuários.