Tools For Building Machine Learning Models On Android

ML Kit

ML Kit jest rozwiązaniem Google do integracji niestandardowego uczenia maszynowego w aplikacjach mobilnych i został wprowadzony na rynek w 2018 roku na swojej konferencji I/O. ML Kit daje innowacje Google w zakresie uczenia maszynowego na urządzeniach dla programistów aplikacji mobilnych, aby pomóc im w tworzeniu niestandardowych doświadczeń w swoich aplikacjach, które obejmują narzędzia takie jak tłumaczenie języka, rozpoznawanie tekstu, wykrywanie obiektów itp. ML Kit pomaga identyfikować, analizować, rozumieć dane wizualne i tekstowe w czasie rzeczywistym oraz w sposób zapewniający ochronę prywatności użytkownika, ponieważ dane pozostają na urządzeniu. Według Google Director of Product Management, „To sprawia, że uczenie maszynowe staje się o wiele bardziej przystępne.”

Deweloperzy mogą korzystać z Vision APIs w ramach ML Kit dla wideo i analizy obrazu APIs do etykietowania obrazów i wykrywania kodów kreskowych, tekstu, twarzy i obiektów. Może to być wykorzystane do różnych zaawansowanych aplikacji rozwoju i integracji ML, takich jak skanowanie kodów kreskowych, wykrywanie twarzy, etykietowanie obrazów, wykrywanie i śledzenie obiektów. Istnieją również interfejsy API do przetwarzania języka naturalnego, umożliwiające identyfikację i tłumaczenie między 58 językami oraz dostarczanie sugestii odpowiedzi. W rezultacie dziś ponad 25 000 aplikacji na Androida i iOS korzysta z funkcji ML Kit.

Oryginalna wersja ML Kit była ściśle zintegrowana z Firebase, a dla większej elastyczności podczas wdrażania w aplikacjach, Google ogłosił niedawno, że udostępnia wszystkie interfejsy API on-device w nowym samodzielnym ML Kit SDK, który nie wymaga już projektu Firebase. Daje to deweloperom dostęp do unikalnych korzyści, które oferuje on-device w porównaniu z tym, co oferuje cloud ML.

Pobierz naszą aplikację mobilną

Według Google, jeśli ML Kit nie zaspokaja w pełni potrzeb deweloperów, deweloperzy mogą szukać alternatywnych modeli oraz sposobów trenowania i używania niestandardowych modeli ML w aplikacji na Androida. „Jeśli gotowe rozwiązania ML nie odpowiadają twoim potrzebom, TensorFlow Hub powinien być twoim pierwszym portem telefonicznym. Jest to repozytorium modeli ML od Google i szerszej społeczności badawczej. Modele na stronie są gotowe do użycia w chmurze, w przeglądarce internetowej lub w aplikacji na urządzeniach”, jak podaje Google

Co jeszcze nowego?

Oprócz kluczowych modeli wizyjnych, takich jak MobileNet i EfficientNet, repozytorium może pochwalić się również modelami zasilanymi najnowszymi badaniami, takimi jak klasyfikacja win dla 400 000 popularnych win, klasyfikacja produktów z amerykańskich supermarketów dla 100 000 produktów, rozpoznawanie punktów orientacyjnych dla poszczególnych kontynentów, model CropNet opracowany przez Brain Accra do rozpoznawania chorób liści manioku, rozpoznawanie chorób roślin przez AgriPredict, który wykrywa choroby w kukurydzy i pomidorach.

Poza tym, dzięki dużemu repozytorium modeli bazowych, programiści mogą również trenować swoje własne modele. Narzędzia przyjazne programistom są dostępne dla wielu typowych przypadków użycia. Oprócz Firebase’s AutoML Vision Edge, zespół TensorFlow uruchomił TensorFlow Lite Model Maker na początku tego roku, aby dać programistom więcej możliwości wyboru nad modelem bazowym, który obsługuje więcej przypadków użycia. TensorFlow Lite Model Maker obsługuje obecnie dwa typowe zadania ML, czyli klasyfikację tekstu i obrazu.

TensorFlow Lite Model Maker może działać na własnej maszynie deweloperskiej lub na internetowych notatnikach uczenia maszynowego Google Colab. Idąc dalej, zespół Android planuje poprawić istniejące oferty i dodać nowe przypadki użycia.

Gdy deweloperzy wybrali model lub przeszkolili swój model, są nowe łatwe w użyciu narzędzia, aby pomóc zintegrować je z ich aplikacją na Androida bez konieczności konwertowania wszystkiego do ByteArrays, z ML Model binding z Android Studio 4.1. Pozwala to programistom zaimportować dowolny model TFLite, odczytać sygnaturę wejścia/wyjścia modelu i użyć go za pomocą zaledwie kilku linii kodu, który wywołuje open-source’ową bibliotekę TensorFlow Lite Android Support Library.

Co myślisz?

Subscribe to our Newsletter

Get the latest updates and relevant offers by sharing your email.

Dodaj komentarz