Instrumente pentru construirea de modele de învățare automată pe Android

ML Kit

ML Kit este soluția Google pentru integrarea învățării automate personalizate în aplicațiile mobile și a fost lansată în 2018, în cadrul conferinței sale I/O. ML Kit pune la dispoziția dezvoltatorilor de aplicații mobile inovația Google în materie de învățare automată pe dispozitiv, pentru a-i ajuta să realizeze experiențe personalizate în aplicațiile lor, care include instrumente precum traducerea limbilor, recunoașterea textului, detectarea obiectelor etc. ML Kit ajută la identificarea, analiza, înțelegerea datelor vizuale și de text în timp real și într-o manieră axată pe confidențialitatea utilizatorului, deoarece datele rămân pe dispozitiv. Potrivit directorului de management al produselor de la Google, „face ca învățarea automată să fie mult mai ușor de abordat.”

Dezvoltatorii pot utiliza API-urile de viziune din cadrul ML Kit for Video și API-urile de analiză a imaginilor pentru a eticheta imagini și a detecta coduri de bare, text, fețe și obiecte. Acest lucru poate fi utilizat pentru diverse aplicații avansate de dezvoltare și integrare ML, cum ar fi scanarea codurilor de bare, detectarea fețelor, etichetarea imaginilor, detectarea și urmărirea obiectelor. De asemenea, există API-uri de procesare a limbajului natural pentru a identifica și traduce între 58 de limbi și a oferi sugestii de răspuns. Ca urmare, în prezent, peste 25.000 de aplicații de pe Android și iOS utilizează funcțiile ML Kit.

Versiunea originală a ML Kit a fost strâns integrată cu Firebase, iar pentru mai multă flexibilitate, în timpul implementării în aplicații, Google a anunțat recent că pune la dispoziție toate API-urile de pe dispozitiv într-un nou SDK ML Kit de sine stătător, care nu mai necesită un proiect Firebase. Acest lucru le oferă dezvoltatorilor acces la beneficiile unice pe care le oferă on-device față de ceea ce oferă ML în cloud.

Download our Mobile App

Potrivit Google, dacă ML Kit nu răspunde complet nevoilor dezvoltatorilor, aceștia pot căuta modele alternative și cum să antreneze și să utilizeze modele ML personalizate în aplicația Android. „Dacă soluțiile ML la cheie nu se potrivesc nevoilor dvs., TensorFlow Hub ar trebui să fie primul dvs. port de apel. Este un depozit de modele ML de la Google și din comunitatea de cercetare mai largă. Modelele de pe site sunt gata de utilizare în cloud, într-un browser web sau într-o aplicație pe dispozitiv”, potrivit Google

Ce mai este nou?

Pe lângă modelele cheie de viziune, cum ar fi MobileNet și EfficientNet, depozitul se mândrește, de asemenea, cu modele bazate pe cele mai recente cercetări, cum ar fi clasificarea vinurilor pentru 400.000 de vinuri populare, clasificarea produselor din supermarketurile americane pentru 100.000 de produse, recunoașterea reperelor pe fiecare continent în parte, modelul CropNet de la Brain Accra pentru recunoașterea bolilor frunzelor de manioc, recunoașterea bolilor plantelor de la AgriPredict care detectează bolile la porumb și la planta de tomate.

În afară de aceasta, cu depozitul mare de modele de bază, dezvoltatorii își pot antrena, de asemenea, propriile modele. Sunt disponibile instrumente ușor de utilizat pentru dezvoltatori pentru multe cazuri de utilizare comune. În plus față de AutoML Vision Edge de la Firebase, echipa TensorFlow a lansat TensorFlow Lite Model Maker la începutul acestui an pentru a oferi dezvoltatorilor mai multe opțiuni cu privire la modelul de bază care să susțină mai multe cazuri de utilizare. TensorFlow Lite Model Maker suportă în prezent două sarcini ML comune, care sunt clasificarea textului și a imaginilor.

TensorFlow Lite Model Maker poate rula pe propria mașină a dezvoltatorului sau pe caietele de învățare a mașinilor online Google Colab. În continuare, echipa Android plănuiește să îmbunătățească ofertele existente și să adauge noi cazuri de utilizare.

După ce dezvoltatorii au selectat un model sau și-au antrenat modelul, există noi instrumente ușor de utilizat pentru a le ajuta să le integreze în aplicația Android fără a fi nevoie să convertească totul în ByteArrays, cu ML Model binding cu Android Studio 4.1. Acest lucru le permite dezvoltatorilor să importe orice model TFLite, să citească semnătura de intrare/ieșire a modelului și să îl utilizeze cu doar câteva linii de cod care apelează biblioteca de suport TensorFlow Lite Android cu sursă deschisă.

Ce părere aveți?

Înscrieți-vă la buletinul nostru informativ

Obțineți cele mai recente actualizări și oferte relevante prin partajarea e-mailului dvs.

Lasă un comentariu