À la découverte d'Android : Gestion des périphériques de saisie

Magazine
Marque
GNU/Linux Magazine
Numéro
154
Mois de parution
novembre 2012
Spécialité(s)


Résumé
Continuons notre plongée dans l'architecture d'Android avec la gestion des entrées/sorties. Après avoir vu, le mois dernier, comment Android agissait sur les écrans, avec la gestion de l'affichage graphique, intéressons-nous désormais à sa capacité à traiter les différents événements en provenance des périphériques de saisie.

Basé sur un noyau Linux et les pilotes de périphériques associés, le système Android est en théorie capable de gérer un grand nombre de périphériques de saisie, tels que claviers, souris, joysticks et gamepads, écrans tactiles et autres systèmes de boutons propriétaires. Notez que j'insiste bien sur l'aspect « en théorie », car s'il est vrai que la gestion bas niveau de ces composants est native, de par l'utilisation de Linux, la gestion des événements remontés est toute autre. N'oubliez pas après tout qu'Android est à la base développé pour être un OS mobile dont le représentant type est le smartphone. Si la gestion d'un écran tactile et de quelques touches semble une évidence, le support des autres périphériques mentionnés est dû à l’arrivée des différentes stations d'accueil (ou « dock ») pour tablettes et autres projets de type GoogleTV. Au cours de cet article, nous allons donc chercher à comprendre comment fonctionne le système...

Cet article est réservé aux abonnés. Il vous reste 97% à découvrir.
S'abonner à Connect
  • Accédez à tous les contenus de Connect en illimité
  • Découvrez des listes de lecture et des contenus Premium
  • Consultez les nouveaux articles en avant-première
Je m'abonne


Article rédigé par

Abonnez-vous maintenant

et profitez de tous les contenus en illimité

Je découvre les offres

Déjà abonné ? Connectez-vous