ML Kit
ML Kit est la solution de Google pour intégrer l’apprentissage automatique personnalisé dans les applications mobiles et a été déployé en 2018 lors de sa conférence I/O. ML Kit donne l’innovation de l’apprentissage automatique sur appareil de Google aux développeurs d’applications mobiles, pour les aider à faire des expériences personnalisées dans leurs applications, ce qui inclut des outils comme la traduction de la langue, la reconnaissance de texte, la détection d’objets, etc. ML Kit permet d’identifier, d’analyser et de comprendre des données visuelles et textuelles en temps réel, et ce dans le respect de la vie privée des utilisateurs, puisque les données restent sur l’appareil. Selon le directeur de la gestion des produits de Google, « il rend l’apprentissage automatique beaucoup plus abordable ».
Les développeurs peuvent utiliser les API de vision sous ML Kit pour la vidéo et les API d’analyse d’image pour étiqueter les images et détecter les codes-barres, le texte, les visages et les objets. Cela peut être utilisé pour divers développements d’applications avancées et l’intégration ML, comme la lecture de codes à barres, la détection de visages, l’étiquetage d’images, la détection et le suivi d’objets. Il existe également des API de traitement du langage naturel permettant d’identifier et de traduire entre 58 langues et de fournir des suggestions de réponses. Par conséquent, aujourd’hui, plus de 25 000 applications sur Android et iOS utilisent les fonctionnalités de ML Kit.
La version originale de ML Kit était étroitement intégrée à Firebase, et pour plus de flexibilité, lors de la mise en œuvre dans les applications, Google a récemment annoncé qu’il rendait toutes les API sur les appareils disponibles dans un nouveau SDK ML Kit autonome qui ne nécessite plus de projet Firebase. Cela permet aux développeurs d’accéder aux avantages uniques qu’offre on-device par rapport à ce qu’offre le cloud ML.
Télécharger notre application mobile
Selon Google, si ML Kit ne répond pas complètement aux besoins des développeurs, ceux-ci peuvent chercher des modèles alternatifs, et comment former et utiliser des modèles ML personnalisés dans votre application Android. « Si les solutions ML clé en main ne répondent pas à vos besoins, TensorFlow Hub devrait être votre premier port d’appel. Il s’agit d’un référentiel de modèles ML provenant de Google et de la communauté de recherche au sens large. Les modèles présents sur le site sont prêts à être utilisés dans le cloud, dans un navigateur web ou dans une application sur un appareil », selon Google
Quoi d’autre est nouveau ?
En plus des modèles de vision clés tels que MobileNet et EfficientNet, le référentiel se targue également de modèles alimentés par les dernières recherches comme la classification des vins pour 400 000 vins populaires, la classification des produits des supermarchés américains pour 100 000 produits, la reconnaissance des points de repère sur une base par continent, le modèle CropNet de Brain Accra pour reconnaître les maladies des feuilles de manioc, la reconnaissance des maladies des plantes d’AgriPredict qui détecte les maladies du maïs et du plant de tomate.
En outre, grâce au vaste référentiel de modèles de base, les développeurs peuvent également former leurs propres modèles. Des outils conviviaux pour les développeurs sont disponibles pour de nombreux cas d’utilisation courants. En plus de l’AutoML Vision Edge de Firebase, l’équipe TensorFlow a lancé TensorFlow Lite Model Maker plus tôt cette année pour donner aux développeurs plus de choix sur le modèle de base qui supporte plus de cas d’utilisation. TensorFlow Lite Model Maker prend actuellement en charge deux tâches ML courantes, à savoir la classification de textes et d’images.
Le TensorFlow Lite Model Maker peut s’exécuter sur votre propre machine de développeur ou sur les carnets d’apprentissage machine en ligne Google Colab. À l’avenir, l’équipe Android prévoit d’améliorer les offres existantes et d’ajouter de nouveaux cas d’utilisation.
Une fois que les développeurs ont sélectionné un modèle ou entraîné leur modèle, il existe de nouveaux outils faciles à utiliser pour aider à les intégrer dans leur application Android sans avoir à tout convertir en ByteArrays, avec ML Model binding avec Android Studio 4.1. Cela permet aux développeurs d’importer n’importe quel modèle TFLite, de lire la signature d’entrée/sortie du modèle, et de l’utiliser avec seulement quelques lignes de code qui appellent la bibliothèque de support Android TensorFlow Lite open-source.
S’abonner à notre newsletter
Recevez les dernières mises à jour et des offres pertinentes en partageant votre email.