Strumenti per costruire modelli di apprendimento automatico su Android

ML Kit

ML Kit è la soluzione di Google per integrare l’apprendimento automatico personalizzato nelle applicazioni mobili ed è stato lanciato nel 2018 alla sua conferenza I/O. ML Kit dà l’innovazione di apprendimento automatico di Google sul dispositivo agli sviluppatori di app mobili, per aiutarli a fare esperienze personalizzate nelle loro applicazioni, che include strumenti come la traduzione della lingua, il riconoscimento del testo, il rilevamento degli oggetti, ecc. ML Kit aiuta a identificare, analizzare, comprendere i dati visivi e testuali in tempo reale, e in un modo incentrato sulla privacy dell’utente, poiché i dati rimangono sul dispositivo. Secondo il direttore del Product Management di Google, “rende l’apprendimento automatico molto più accessibile.”

Gli sviluppatori possono utilizzare le API di visione sotto ML Kit per video e API di analisi delle immagini per etichettare le immagini e rilevare codici a barre, testo, volti e oggetti. Questo può essere utilizzato per lo sviluppo di varie applicazioni avanzate e per l’integrazione di ML come la scansione di codici a barre, il rilevamento dei volti, l’etichettatura delle immagini, il rilevamento e il tracciamento degli oggetti. Inoltre, ci sono API di elaborazione del linguaggio naturale per identificare e tradurre tra 58 lingue e fornire suggerimenti di risposta. Come risultato, oggi, più di 25.000 applicazioni su Android e iOS fanno uso delle caratteristiche di ML Kit.

La versione originale di ML Kit era strettamente integrata con Firebase, e per una maggiore flessibilità, durante l’implementazione nelle app, Google ha recentemente annunciato che stava rendendo tutte le API sul dispositivo disponibili in un nuovo SDK ML Kit standalone che non richiede più un progetto Firebase. Questo dà agli sviluppatori l’accesso ai vantaggi unici che on-device rispetto a ciò che offre il cloud ML.

Scarica la nostra App mobile

Secondo Google, se ML Kit non soddisfa completamente le esigenze degli sviluppatori, questi ultimi possono cercare modelli alternativi e come addestrare e utilizzare modelli ML personalizzati nella tua app Android. “Se le soluzioni ML chiavi in mano non soddisfano le tue esigenze, TensorFlow Hub dovrebbe essere il tuo primo porto di chiamata. Si tratta di un repository di modelli ML da Google e dalla più ampia comunità di ricerca. I modelli sul sito sono pronti per l’uso nel cloud, in un browser web o in un’app su dispositivo”, secondo Google

Che altro è nuovo?

Oltre ai modelli di visione chiave come MobileNet e EfficientNet, il repository vanta anche modelli alimentati dalle ultime ricerche come la classificazione dei vini per 400.000 vini popolari, la classificazione dei prodotti dei supermercati statunitensi per 100.000 prodotti, il riconoscimento dei punti di riferimento su base per-continente, il modello CropNet di Brain Accra per riconoscere le malattie delle foglie di manioca, il riconoscimento delle malattie delle piante di AgriPredict che rileva le malattie nel mais e nelle piante di pomodoro.

Inoltre, con il grande archivio di modelli di base, gli sviluppatori possono anche addestrare i propri modelli. Sono disponibili strumenti di facile utilizzo per gli sviluppatori per molti casi d’uso comuni. Oltre a AutoML Vision Edge di Firebase, il team di TensorFlow ha lanciato TensorFlow Lite Model Maker all’inizio di quest’anno per dare agli sviluppatori più scelte sul modello di base che supportano più casi d’uso. TensorFlow Lite Model Maker attualmente supporta due comuni compiti di ML, che è la classificazione del testo e dell’immagine.

Il TensorFlow Lite Model Maker può essere eseguito sulla propria macchina sviluppatore o sui notebook di apprendimento automatico online di Google Colab. Andando avanti, il team Android prevede di migliorare le offerte esistenti e di aggiungere nuovi casi d’uso.

Una volta che gli sviluppatori hanno selezionato un modello o addestrato il loro modello, ci sono nuovi strumenti facili da usare per aiutarli a integrarli nella loro app Android senza dover convertire tutto in ByteArrays, con ML Model binding con Android Studio 4.1. Questo permette agli sviluppatori di importare qualsiasi modello TFLite, leggere la firma di input/output del modello e usarlo con poche righe di codice che chiama la libreria di supporto open-source TensorFlow Lite Android.

Cosa ne pensi?

Abbonati alla nostra Newsletter

Ottieni gli ultimi aggiornamenti e le offerte rilevanti condividendo la tua email.

Lascia un commento