Quand vous entendez le mot apprentissage automatique (ML), imaginez-vous instantanément une grande salle de serveurs, transpirant abondamment, pour traiter d'énormes volumes de données ?
Ce n'est pas grave même si ce n'est pas le cas, car le matériel qui rend le ML possible devient plus petit que jamais.
Bien que comparer les tailles des dispositifs de calcul sur plusieurs décennies soit assez injuste, l'idée ici est que l'avenir du ML est plus compact et moins gourmand en ressources. Cette compacité est rendue possible par un type de ML appelé TinyML. Avec TinyML, vous pouvez déployer des logiciels d'intelligence artificielle directement sur des appareils périphériques, les rendant ainsi faisables sur le plan informatique et utilisables pour des applications intelligentes.
Avec le matériel TinyML, il est facile de conserver en toute sécurité vos modèles d'apprentissage automatique avec des microcontrôleurs intégrés ou d'autres mécanismes petits et à faible consommation d'énergie. Ces appareils ont moins de latence, plus de puissance de calcul et une sécurité des données renforcée. Alors que nous approchons de l'ère futuriste de la révolution quantique, TinyML sera incorporé à grande échelle pour accéder aux données de manière flexible et directe.
Qu'est-ce que TinyML ?
TinyML est un domaine émergent qui se situe à l'intersection du ML et des systèmes embarqués. Il se concentre sur le développement et le déploiement de modèles de ML sur des appareils à faible consommation d'énergie. TinyML est également considéré comme un sous-ensemble de l'IA périphérique car il offre des capacités d'IA aux appareils embarqués. Il a moins d'allocation de mémoire, de puissance de traitement et d'autonomie de batterie mais une plus grande connectivité et accessibilité. Il englobe une gamme de techniques, comme la compression de modèles, l'inférence efficace et les accélérateurs matériels.
Histoire de TinyML
Initialement, les chercheurs et les informaticiens utilisaient des tubes à vide haut de gamme ou des intégrateurs numériques électroniques et des ordinateurs (ENIAC) alors que la révolution technologique américaine battait son plein. Ces appareils encombrants étaient également utilisés pour stocker des données qui étaient ensuite utilisées à des fins scientifiques et d'intelligence artificielle.
Voici l'image d'un ordinateur utilisé par la première génération de chercheurs en intelligence artificielle (IA) dans les années 1950.
Source : Wikipedia
Voici un petit équipement qui ne mesure que quelques centimètres de long et qui peut exécuter le ML aujourd'hui.
Source : QueNube
En d'autres termes, TinML peut être vu comme le mariage entre ML et les appareils IoT embarqués. Avec TinyML, ML les modèles sont optimisés pour fonctionner sur des appareils à très faible consommation d'énergie et à faible mémoire ou des appareils à ressources limitées comme les microcontrôleurs.
Un système embarqué traditionnel est un dispositif informatique qui consomme un minimum d'énergie, ce qui permet de le faire fonctionner avec des piles, telles que des piles bouton, pendant des jours, des mois, voire des années.
La façon la plus simple de comprendre l'idée de TinyML est de penser à la technologie de l'assistant vocal de votre smartphone. Chaque fois que vous dites "OK, Google" ou "Hey Siri", vous voulez que votre appareil réponde immédiatement. Pour cela, le modèle de ML doit fonctionner localement au lieu d'envoyer des données à un centre de données pour traitement.
Exemples de TinyML
Il y a plus d'exemples de TinyML appliqués à des appareils plus petits autour de vous. Depuis au moins quelques années maintenant, il existe une sorte de réseaux neuronaux artificiels dans nos smartphones. Cela rend l'apprentissage profond embarqué viable, rendant possible la reconnaissance vocale et la classification d'images sur l'appareil. Ces réseaux neuronaux sont également cruciaux pour capturer des images de haute qualité et améliorer la reconnaissance des gestes.
En plus de permettre aux appareils à faible consommation d'énergie d'exécuter des modèles de ML, TinyML consiste à exécuter des ML inférences dans les appareils IoT en calculant les données en temps réel. Cette méthode de traitement des données au plus près de la source d'origine est appelée edge computing. Une ML inférence est un processus consistant à faire passer des points de données (en direct) dans un ML modèle pour calculer la sortie. C'est aussi appelé "mettre un modèle de ML en production" ou "opérationnaliser un modèle".
TensorFlow Lite, uTensor, AIfES, et CMSIS-NN d'Arm sont quelques-uns des cadres les plus populaires utilisés pour déployer des modèles de ML dans les appareils IoT. TensorFlow Lite, un cadre d'apprentissage profond open-source créé par Google, est le plus populaire parmi eux. Edge Impulse et OpenMV sont quelques plateformes utilisées pour le développement d'applications TinyML.
Bien qu'il ne soit pas sage de comparer ML et TinyML. Au lieu de cela, il est préférable de voir TinyML comme une sous-catégorie de ML. C'est parce que TinyML ne peut pas être utilisé dans tous les cas où ML est actuellement employé. Pensez à TinyML comme ML en mode survie.
Vous voulez en savoir plus sur Logiciel d'apprentissage automatique ? Découvrez les produits Apprentissage automatique.
Croissance de TinyML
Il est bien connu que l'entraînement des modèles de ML et l'exécution d'inférences sur eux sont coûteux en termes de calcul. L'apprentissage profond est gourmand en puissance et en données. La taille des modèles d'apprentissage profond de pointe (SOTA) a connu une croissance de 10 fois d'année en année. Voici un graphique qui montre l'augmentation des exigences de calcul pour les modèles de SOTA ML.
Source : OpenAI
Utiliser TinyML pour rétrécir un modèle de ML en appareils embarqués plus petits permet d'exécuter une inférence de modèle à faible consommation d'énergie. Cela permet aux microcontrôleurs de fonctionner longtemps sans être rechargés.
Un CPU standard pour les consommateurs consomme entre 65 watts et 85 watts. Un microcontrôleur consomme mille fois moins d'énergie que les CPU traditionnels pour les consommateurs, mesurée en milliwatts ou microwatts. Alors que la demande pour l'architecture sans serveur et le edge computing augmente, les industries verront une augmentation de la consommation de TinyML avec l'affirmation récente d'enquêtes basées sur les données dans le même contexte. La plupart des éditeurs soutiennent que le marché de TinyML devrait croître à un taux de croissance annuel composé de 13 % entre 2023 et 2030. Ce sera un tournant pour les applications intelligentes futures qui nécessiteront un matériel peu coûteux, peu gourmand en calcul mais robuste et sécurisé.
Avantages de TinyML
Étant donné que les données n'ont pas besoin d'être envoyées à un serveur pour exécuter une inférence, TinyML offre une sortie à faible latence. Cela signifie également que moins de bande passante Internet est utilisée. Comme les données ne sont pas stockées sur des serveurs et que le modèle fonctionne localement, il y a également une meilleure confidentialité des données.
Voici quelques autres avantages de TinyML :
- Consommation d'énergie réduite : Ces modèles sont conçus pour fonctionner sur des microcontrôleurs qui consomment le millième de la puissance de traitement totale d'une unité centrale de traitement (CPU). Cela entraîne des économies d'énergie significatives par rapport aux modèles d'apprentissage automatique déployés sur un serveur cloud.
- Autonomie de batterie prolongée : Les appareils qui utilisent TinyML ont une durée de vie de batterie plus longue et peuvent fonctionner plus longtemps que d'autres appareils matériels traditionnels.
- Latence réduite : En effectuant l'inférence directement sur l'appareil, TinyML réduit le besoin d'envoyer les données au serveur. Cela entraîne une latence plus faible et une récupération des données plus rapide. Cela réduit également les décalages réseau et les temps de réponse.
- Réduction des délais : Les applications telles que le traitement du langage naturel, la reconnaissance vocale, l'analyse prédictive et la détection d'anomalies bénéficient d'un traitement direct et immédiat, améliorant ainsi l'expérience utilisateur et la compatibilité du système.
- Utilisation réduite de la bande passante : TinyML stocke les données localement sur votre appareil, ce qui ne sollicite pas la bande passante du réseau et permet d'économiser plus de coûts. Comme vous ne stockez pas de données sur un serveur Internet, vous n'avez pas besoin de payer pour la transmission de données ou l'échange de données électroniques, ce qui n'épuise pas votre forfait de données.
- Meilleure confidentialité des données : Garder l'inférence directement sur votre appareil réduit le risque de vol de données et augmente la confidentialité. Cela minimise également le risque d'accès non autorisé et de piratage, car les informations restent sur l'appareil local. Cette approche peut être suivie pour les industries qui hébergent des informations sensibles comme la surveillance de la santé, l'authentification biométrique ou les systèmes de sécurité.
Petites particules d'une révolution mondiale
TinyML rend possible l'intelligence des petits appareils. Étant donné que les microcontrôleurs sont presque partout et collectent de grandes quantités de données, TinyML peut aider à mieux utiliser les données collectées.
Agriculture, fabrication, gestion de la chaîne d'approvisionnement, santé, transport, conservation de la faune et sûreté sont quelques-uns des domaines où TinyML a un potentiel immense. En fait, TinyML a le potentiel de changer le monde qui nous entoure. Imaginez chaque capteur avec la capacité d'être intelligent et réactif envers nous.
Apprenez comment TinyML peut simplifier les cadres d'apprentissage automatique pour construire des applications intelligentes et faire évoluer votre roue de l'IA pour un succès futur.

Amal Joby
Amal is a Research Analyst at G2 researching the cybersecurity, blockchain, and machine learning space. He's fascinated by the human mind and hopes to decipher it in its entirety one day. In his free time, you can find him reading books, obsessing over sci-fi movies, or fighting the urge to have a slice of pizza.