banner
Centre d'Information
Nous nous donnons pour priorité d’ajouter constamment des produits nouveaux et créatifs à notre collection dans le monde entier.

TinyML : applications, limitations et utilisation dans les appareils IoT et Edge

Aug 03, 2023

Par

Au cours des dernières années, l’intelligence artificielle (IA) et l’apprentissage automatique (ML) ont connu une augmentation fulgurante en termes de popularité et d’applications, non seulement dans l’industrie mais également dans le monde universitaire. Cependant, les modèles de ML et d'IA actuels présentent une limite majeure : ils nécessitent une immense quantité de puissance de calcul et de traitement pour obtenir les résultats et la précision souhaités. Cela limite souvent leur utilisation à des appareils de grande capacité dotés d’une puissance de calcul importante.

Mais compte tenu des progrès réalisés dans la technologie des systèmes embarqués et du développement substantiel de l’industrie de l’Internet des objets, il est souhaitable d’incorporer l’utilisation des techniques et des concepts de ML dans un système embarqué aux ressources limitées pour une intelligence omniprésente. Le désir d'utiliser les concepts de ML dans les systèmes embarqués et IoT est le principal facteur de motivation derrière le développement de TinyML, une technique de ML embarquée qui permet des modèles et des applications de ML sur plusieurs appareils à ressources limitées, à puissance limitée et bon marché.

Cependant, la mise en œuvre du ML sur des appareils aux ressources limitées n'a pas été simple, car la mise en œuvre de modèles de ML sur des appareils à faible puissance de calcul présente ses propres défis en termes d'optimisation, de capacité de traitement, de fiabilité, de maintenance des modèles et bien plus encore.

Dans cet article, nous approfondirons le modèle TinyML et en apprendrons davantage sur son contexte, les outils prenant en charge TinyML et les applications de TinyML utilisant des technologies avancées. Alors commençons.

L'Internet des objets ou les appareils IoT visent à tirer parti de l'informatique de pointe, un paradigme informatique qui fait référence à une gamme d'appareils et de réseaux proches de l'utilisateur pour permettre un traitement transparent et en temps réel des données provenant de millions de capteurs et d'appareils interconnectés les uns aux autres. L’un des principaux avantages des appareils IoT est qu’ils nécessitent une faible puissance de calcul et de traitement car ils peuvent être déployés à la périphérie du réseau et ont donc une faible empreinte mémoire.

De plus, les appareils IoT s'appuient fortement sur des plates-formes périphériques pour collecter puis transmettre les données, car ces appareils périphériques collectent des données sensorielles, puis les transmettent soit à un emplacement à proximité, soit à des plates-formes cloud pour traitement. La technologie informatique de pointe stocke et effectue des calculs sur les données et fournit également l'infrastructure nécessaire pour prendre en charge l'informatique distribuée.

La mise en œuvre de l'informatique de pointe dans les appareils IoT offre

De plus, étant donné que les appareils périphériques peuvent déployer une technique collaborative entre les capteurs et le cloud, le traitement des données peut être effectué à la périphérie du réseau au lieu d'être effectué sur la plate-forme cloud. Cela peut se traduire par une gestion efficace des données, une persistance des données, une livraison efficace et une mise en cache du contenu. De plus, la mise en œuvre de l’IoT dans des applications qui traitent de l’interaction H2M ou homme-machine et de l’informatique de pointe moderne dans le domaine des soins de santé offre un moyen d’améliorer considérablement les services réseau.

Des recherches récentes dans le domaine de l'informatique de pointe de l'IoT ont démontré le potentiel de mise en œuvre de techniques d'apprentissage automatique dans plusieurs cas d'utilisation de l'IoT. Cependant, le problème majeur est que les modèles d'apprentissage automatique traditionnels nécessitent souvent une puissance de calcul et de traitement élevée, ainsi qu'une capacité de mémoire élevée, ce qui limite la mise en œuvre de modèles de ML dans les appareils et applications IoT.

De plus, la technologie informatique de pointe manque aujourd'hui d'une capacité de transmission élevée et d'économies d'énergie efficaces, ce qui conduit à des systèmes hétérogènes, ce qui est la principale raison de la nécessité d'une infrastructure harmonieuse et holistique, principalement pour la mise à jour, la formation et le déploiement de modèles ML. L'architecture conçue pour les appareils embarqués pose un autre défi car ces architectures dépendent des exigences matérielles et logicielles qui varient d'un appareil à l'autre. C'est la principale raison pour laquelle il est difficile de créer une architecture ML standard pour les réseaux IoT.

De plus, dans le scénario actuel, les données générées par différents appareils sont envoyées vers des plates-formes cloud pour traitement en raison de la nature gourmande en calcul des implémentations de réseau. De plus, les modèles de ML dépendent souvent du Deep Learning, des réseaux de neurones profonds, des circuits intégrés spécifiques à une application (ASIC) et des unités de traitement graphique (GPU) pour traiter les données, et ils ont souvent des besoins en énergie et en mémoire plus élevés. Le déploiement de modèles ML à part entière sur des appareils IoT n'est pas une solution viable en raison du manque évident de puissances de calcul et de traitement et de solutions de stockage limitées.