Værktøjer til opbygning af maskinlæringsmodeller på Android

ML Kit

ML Kit er Googles løsning til integration af skræddersyet maskinlæring i mobilapplikationer og blev lanceret i 2018 på I/O-konferencen. ML Kit giver Googles maskinlæringsinnovation på enheden til udviklere af mobilapps for at hjælpe dem med at lave tilpassede oplevelser i deres applikationer, hvilket omfatter værktøjer som sprogoversættelse, tekstgenkendelse, objektdetektion osv. ML Kit hjælper med at identificere, analysere og forstå visuelle og tekstdata i realtid og på en måde, der fokuserer på brugerens privatliv, da data forbliver på enheden. Ifølge Googles direktør for produktstyring “gør det maskinlæring meget mere tilgængelig.”

Udviklere kan bruge Vision API’er under ML Kit til video og billedanalyse-API’er til at mærke billeder og registrere stregkoder, tekst, ansigter og objekter. Dette kan bruges til forskellige avancerede applikationsudviklinger og ML-integration såsom stregkodescanning, ansigtsdetektion, billedmærkning, billedmærkning, objektdetektion og -sporing. Der er også API’er til behandling af naturligt sprog til at identificere og oversætte mellem 58 sprog og give svarforslag. Som et resultat heraf gør i dag mere end 25.000 applikationer på Android og iOS brug af ML Kits funktioner.

Den oprindelige version af ML Kit var tæt integreret med Firebase, og for at opnå større fleksibilitet, mens de implementeres i apps, meddelte Google for nylig, at de gjorde alle API’er på enheden tilgængelige i et nyt selvstændigt ML Kit SDK, der ikke længere kræver et Firebase-projekt. Dette giver udviklere adgang til de unikke fordele, som on-device i forhold til hvad cloud ML tilbyder.

Download vores mobilapp

Ifølge Google kan udviklere, hvis ML Kit ikke fuldt ud opfylder udviklernes behov, kigge efter alternative modeller, og hvordan de kan træne og bruge brugerdefinerede ML-modeller i deres Android-app, hvis ML Kit ikke helt opfylder deres behov. “Hvis de nøglefærdige ML-løsninger ikke passer til dine behov, bør TensorFlow Hub være din første indgangsvinkel. Det er et arkiv med ML-modeller fra Google og det bredere forskningsmiljø. Modellerne på webstedet er klar til brug i skyen, i en webbrowser eller i en app på en enhed”, ifølge Google

Hvad er der ellers nyt?

Ud over de vigtigste vision-modeller såsom MobileNet og EfficientNet kan lageret også prale af modeller, der er baseret på den nyeste forskning, såsom vinklassificering af 400.000 populære vine, produktklassificering af 100.000 produkter fra amerikanske supermarkeder, landmærke-genkendelse på kontinentbasis, CropNet-model fra Brain Accra til genkendelse af kassava-bladersygdomme, plantesygdomsgenkendelse fra AgriPredict, der registrerer sygdomme i majs og tomatplanter.

Med det store lager af basismodeller kan udviklere også træne deres egne modeller. Der findes udviklerevenlige værktøjer til mange almindelige anvendelsestilfælde. Ud over Firebases AutoML Vision Edge lancerede TensorFlow-teamet tidligere i år TensorFlow Lite Model Maker for at give udviklere flere valgmuligheder i forhold til basismodellen, der understøtter flere anvendelsestilfælde. TensorFlow Lite Model Maker understøtter i øjeblikket to almindelige ML-opgaver, som er tekst- og billedklassificering.

TensorFlow Lite Model Maker kan køre på din egen udviklermaskine eller på Google Colab online-notebooks til maskinlæring. Fremadrettet planlægger Android-teamet at forbedre de eksisterende tilbud og tilføje nye anvendelsestilfælde.

Når udviklere har valgt en model eller trænet deres model, er der nye brugervenlige værktøjer til at hjælpe med at integrere dem i deres Android-app uden at skulle konvertere alt til ByteArrays, med ML Model binding med Android Studio 4.1. Dette giver udviklere mulighed for at importere en hvilken som helst TFLite-model, læse modellens input/output-signatur og bruge den med blot et par linjer kode, der kalder open source TensorFlow Lite Android Support Library.

Hvad synes du?

Abonner på vores nyhedsbrev

Få de seneste opdateringer og relevante tilbud ved at dele din e-mail.

Skriv en kommentar