Cette expérience de suivi oculaire soignée ressemble à un moyen étrangement pratique d’interagir avec votre téléphone

EyeMU Interactions_ Gaze + IMU Gestures on Mobile Devices 0-34 screenshot (1)

📱 2022-04-21 21:34:00 – Paris/France.

Il est parfaitement associé à de petits gestes de mouvement

Bien qu’une poignée de petits téléphones existent encore, ce n’est un secret pour personne que l’ensemble de l’industrie est passé à un état d’esprit « plus c’est gros, mieux c’est ». Un grand écran peut être utile lorsque vous modifiez des documents en déplacement ou que vous regardez un film téléchargé dans un avion, mais vous aurez besoin de deux mains pour appuyer sur chaque partie de l’écran. Des chercheurs du Future Interfaces Group de l’Université Carnegie Mellon ont créé une solution potentielle à ce problème sans cesse croissant.

Contrairement à la plupart des projets d’accessibilité, cette expérience particulière a commencé dans le but de faciliter le contrôle du smartphone pour tout le monde. Selon un communiqué de presse du département informatique de CMU (via TechCrunch), l’équipe a commencé par demander s’il existait « un mécanisme plus naturel à utiliser pour interagir avec le téléphone ». De toute évidence, votre doigt a le plus de sens – vous interagissez directement avec les icônes et les éléments de contrôle à l’écran. Chaque périphérique d’entrée supplémentaire que nous avons vu au fil des ans, comme les stylets, a fonctionné de la même manière.

VIDÉO ANDROIDPOLICE DU JOUR

Pour le Future Interfaces Group, l’équipe a plutôt décidé de travailler sur l’oculométrie. Ce n’est pas une nouvelle expérience, mais à en juger par la vidéo pratique publiée l’automne dernier, c’est l’une des plus réussies à ce jour. Avec EyeMU, l’utilisateur peut sélectionner et ouvrir des notifications, revenir aux applications précédentes et même sélectionner des photos spécifiques. Ces mouvements sont associés à des mouvements du téléphone lui-même, en le secouant de gauche à droite ou en le rapprochant ou en l’éloignant de votre visage. Il est mieux vu en action que décrit, alors regardez le clip ci-dessous pour une démo complète.

La plus grande différence entre cette approche et les exemples plus anciens de la même technologie réside dans la retenue. L’équipe savait qu’il n’était pas possible d’associer des actions à chaque coup d’œil. Sinon, comment faire quoi que ce soit ? C’est là que les capteurs de mouvement entrent en jeu, agissant comme des invites de confirmation chaque fois que vous devez sélectionner, déplacer ou ignorer.

De toute évidence, cette expérience est encore une démonstration de ce qui pourrait arriver à l’avenir. Qui sait, peut-être que le Pixel 11 sera alimenté par une technologie similaire.

Examen de l’iPhone SE (2022) : une rampe de sortie Android facile

Lire la suite

A propos de l’auteur

SOURCE : Reviews News

N’hésitez pas à partager notre article sur les réseaux sociaux afin de nous donner un solide coup de pouce. 📲

Quitter la version mobile