Acheter une carte à microcontrôleur en ligne, la réceptionner, la brancher en USB, rapidement installer un environnement de développement plus ou moins étoffé et/ou basique, programmer un bout de code en deux temps, trois mouvements, compiler, charger le binaire et voir la jolie LED clignoter... Vous connaissez la routine qui semble, de toute évidence, sans surprise et parfaitement normale. Mais il n'en a pas toujours été ainsi et nos aïeux devaient vraiment mériter leur dopamine quotidienne. Bien plus que les chanceux bidouilleurs que nous sommes aujourd'hui, la preuve en pratique...
Quoi de plus standard et usuel que de faire clignoter une LED sur une carte ? C'est le « Hello World » de l'électronique numérique et, sans le moindre doute, la première chose que l'on tente lorsqu'on prend en main une nouvelle carte, un nouveau MCU ou un nouvel environnement de développement. De la compilation à l'exécution du binaire, les étapes sont connues et facilitées par tout un tas de mécanismes qu'on prend facilement pour acquis (et qui le sont effectivement aujourd'hui, c'est un fait).
Pour se rendre compte de l'évolution du domaine et, par-dessus tout, de sa grande accessibilité, revenons un peu dans le passé et penchons-nous sur un MCU d'un autre âge. Non, je ne vous parle pas d'ATmega8 ou même de PIC 16F84A, nous remontons bien plus loin, au milieu des années 80, lorsque les EEPROM, et encore moins les EEPROM intégrées aux microcontrôleurs n'étaient rien de plus qu'un doux rêve. Comme mon masochisme n'a pas encore atteint un stade suffisamment...
- Accédez à tous les contenus de Connect en illimité
- Découvrez des listes de lecture et des contenus Premium
- Consultez les nouveaux articles en avant-première