Octet

Nouvelles

MaisonMaison / Nouvelles / Octet

Sep 26, 2023

Octet

Alors que les algorithmes d'intelligence artificielle (IA) s'exécutent sur des plateformes plus grandes et plus puissantes

Alors que les algorithmes d'intelligence artificielle (IA) exécutés sur du matériel plus grand et plus puissant volent souvent la vedette, l'importance de l'IA de pointe ne doit pas être sous-estimée. Edge AI fait référence au déploiement d'algorithmes d'IA sur des appareils locaux tels que des smartphones, des caméras, des capteurs et d'autres appareils de l'Internet des objets, plutôt que de s'appuyer uniquement sur des solutions basées sur le cloud. Cette approche décentralisée offre de nombreux avantages et ouvre un large éventail d'applications possibles.

L'un des principaux avantages de l'IA de périphérie est la latence réduite. En traitant les données localement sur l'appareil lui-même, Edge AI élimine le besoin d'allers-retours vers le cloud, ce qui se traduit par des temps de réponse plus rapides. Cette capacité en temps réel est cruciale dans les scénarios où la prise de décision immédiate est vitale, comme avec les véhicules autonomes, l'automatisation industrielle et la surveillance des infrastructures critiques. De plus, Edge AI améliore la confidentialité et la sécurité puisque les données sensibles restent sur l'appareil local, ce qui réduit le risque de violation de données et garantit la confidentialité des utilisateurs.

Malgré les nombreux avantages, l'exécution d'algorithmes plus gourmands en ressources, tels que la détection d'objets complexes ou des modèles d'apprentissage en profondeur, sur des appareils périphériques présente un défi important. Les appareils informatiques de pointe ont souvent une puissance de calcul, une mémoire et des ressources énergétiques limitées par rapport au matériel basé sur le cloud. Trouver un équilibre entre la précision de l'algorithme et les contraintes de l'appareil devient crucial pour assurer un fonctionnement efficace. Des optimisations telles que la compression de modèle, la quantification et des techniques d'inférence efficaces sont nécessaires pour que ces algorithmes fonctionnent correctement sur les périphériques de périphérie.

Parce que comprendre et reconnaître des objets dans des images ou des vidéos est une tâche fondamentale dans la perception visuelle, les algorithmes de détection d'objets revêtent une importance particulière dans diverses industries et applications. De grands progrès ont été réalisés dans l'adaptation des modèles de détection d'objets aux appareils périphériques à ressources limitées, comme l'algorithme FOMO d'Edge Impulse qui s'exécute jusqu'à 30 fois plus vite que MobileNet SSD, mais nécessite moins de 200 Ko de mémoire pour de nombreux cas d'utilisation. Mais pour des domaines d'application aussi importants et divers, il y a beaucoup de place pour de nouvelles avancées.

Le dernier venu dans le domaine est une équipe de chercheurs du Center for Project Based Learning de l'ETH Zurich. Ils ont développé un réseau de détection d'objets hautement flexible, économe en mémoire et ultra-léger qu'ils appellent TinyissimoYOLO. Les optimisations appliquées à ce modèle le rendent bien adapté pour fonctionner sur des microcontrôleurs de faible puissance.

TinyissimoYOLO est un réseau de neurones convolutifs (CNN) basé sur l'architecture du célèbre algorithme YOLO. Il a été construit de couches convolutives quantifiées avec 3 x 3 noyaux et une couche de sortie entièrement connectée. Les couches linéaires convolutionnelles et entièrement connectées sont fortement optimisées dans les chaînes d'outils matérielles et logicielles des appareils modernes, ce qui donne à TinyissimoYOLO un coup de pouce en termes de vitesse et d'efficacité. Il s'agit d'un réseau de détection d'objets généralisé qui peut être appliqué à un large éventail de tâches et ne nécessite pas plus de 512 Ko de mémoire flash pour stocker les paramètres du modèle.

Le modèle peut être déployé sur pratiquement n'importe quel matériel qui répond à ses exigences très modestes, y compris les plates-formes avec des processeurs Arm Cortex-M ou des accélérateurs matériels AI. Une large gamme d'appareils a été testée avec TinyissimoYOLO, notamment Analog Devices MAX78000, Greenwaves GAP9, Sony Spresense et Syntiant TinyML.

Lors de l'évaluation de leurs méthodes, l'équipe a découvert qu'elle pouvait exécuter la détection d'objets sur une carte MAX78000 à une vitesse stupéfiante de 180 images par seconde. Et cette excellente performance s'accompagnait d'une consommation d'énergie ultra-faible de seulement 196 µJ par inférence. Bien sûr, rien de tout cela n'a d'importance si le modèle ne fonctionne pas bien. Mais étonnamment, ce petit modèle a également fonctionné de manière comparable à des algorithmes de détection d'objets beaucoup plus grands.

Naturellement, certains coins doivent être coupés pour réussir un tel exploit, cependant. La taille d'entrée de l'image, par exemple, est limitée à 88 x 88 pixels. C'est une résolution insuffisante pour de nombreuses utilisations. De plus, étant donné que le problème de détection d'objets multiclasses devient plus difficile à mesure que le nombre d'objets augmente, un maximum de trois objets par image est pris en charge.

Malgré ces limitations, la polyvalence, la précision et les exigences matérielles minimales de TinyissimoYOLO en font une option attrayante pour ceux qui cherchent à faire de la détection d'objets en périphérie.