ML Kit
ML Kit är Googles lösning för att integrera skräddarsydd maskininlärning i mobila applikationer och lanserades 2018 på I/O-konferensen. ML Kit ger Googles maskininlärningsinnovation på enheten till utvecklare av mobilappar, för att hjälpa dem att göra skräddarsydda upplevelser i sina applikationer, vilket inkluderar verktyg som språköversättning, textigenkänning, objektdetektering osv. ML Kit hjälper till att identifiera, analysera och förstå visuella data och textdata i realtid och på ett sätt som fokuserar på användarens integritet, eftersom data förblir på enheten. Enligt Googles chef för produkthantering ”gör det maskininlärning mycket mer lättillgängligt.”
Utvecklare kan använda Vision-API:er under ML Kit för video och bildanalys-API:er för att märka bilder och upptäcka streckkoder, text, ansikten och objekt. Detta kan användas för olika avancerade applikationsutveckling och ML-integration som streckkodsscanning, ansiktsdetektering, bildmärkning, objektdetektering och spårning. Det finns också API:er för behandling av naturligt språk för att identifiera och översätta mellan 58 språk och ge svarsförslag. Som ett resultat av detta använder idag mer än 25 000 applikationer på Android och iOS ML Kits funktioner.
Den ursprungliga versionen av ML Kit var tätt integrerad med Firebase, och för att få större flexibilitet vid implementering i appar meddelade Google nyligen att de gör alla API:er på enheten tillgängliga i ett nytt fristående ML Kit SDK som inte längre kräver ett Firebase-projekt. Detta ger utvecklare tillgång till de unika fördelar som on-device jämfört med vad molnet ML erbjuder.
Ladda ner vår mobilapp
Om ML Kit inte helt och hållet tillgodoser utvecklarnas behov kan utvecklarna enligt Google leta efter alternativa modeller och hur man tränar och använder anpassade ML-modeller i sin Android-app. ”Om de nyckelfärdiga ML-lösningarna inte passar dina behov bör TensorFlow Hub vara din första kontaktpunkt. Det är ett arkiv med ML-modeller från Google och det bredare forskarsamhället. Modellerna på webbplatsen är redo att användas i molnet, i en webbläsare eller i en app på en enhet”, enligt Google
Vad är nytt i övrigt?
Förteckningen innehåller förutom viktiga visionsmodeller som MobileNet och EfficientNet även modeller som bygger på den senaste forskningen, t.ex. vinklassificering av 400 000 populära viner, produktklassificering av 100 000 produkter från en amerikansk stormarknad, igenkänning av landmärken per kontinent, CropNet-modellen från Brain Accra för att känna igen sjukdomar i kassavablad, igenkänning av växtsjukdomar från AgriPredict som känner igen sjukdomar i majs och tomatplantor.
Med hjälp av det stora arkivet med basmodeller kan utvecklare också träna sina egna modeller. Utvecklarvänliga verktyg finns tillgängliga för många vanliga användningsfall. Förutom Firebases AutoML Vision Edge lanserade TensorFlow-teamet tidigare i år TensorFlow Lite Model Maker för att ge utvecklare fler valmöjligheter när det gäller basmodellen som stöder fler användningsfall. TensorFlow Lite Model Maker stöder för närvarande två vanliga ML-uppgifter, nämligen text- och bildklassificering.
TensorFlow Lite Model Maker kan köras på din egen utvecklarmaskin eller på Google Colab online-notebooks för maskininlärning. Framöver planerar Android-teamet att förbättra de befintliga erbjudandena och lägga till nya användningsområden.
När utvecklare har valt en modell eller tränat sin modell finns det nya lättanvända verktyg som hjälper till att integrera dem i deras Android-app utan att behöva konvertera allt till ByteArrays, med ML Model binding with Android Studio 4.1. Detta gör att utvecklare kan importera vilken TFLite-modell som helst, läsa modellens input/output-signatur och använda den med bara några få rader kod som anropar den öppna källan TensorFlow Lite Android Support Library.
Prenumerera på vårt nyhetsbrev
Få de senaste uppdateringarna och relevanta erbjudanden genom att dela din e-post.