Ferramentas para construir modelos de aprendizagem de máquinas no Android

ML Kit

ML Kit é a solução do Google para integrar a aprendizagem de máquinas personalizada em aplicações móveis e foi lançada em 2018 na sua conferência I/O. O ML Kit oferece a inovação da aprendizagem de máquinas no dispositivo do Google aos desenvolvedores de aplicativos móveis, para ajudá-los a fazer experiências personalizadas em suas aplicações, o que inclui ferramentas como tradução de idiomas, reconhecimento de texto, detecção de objetos, etc. O ML Kit ajuda a identificar, analisar, compreender dados visuais e de texto em tempo real, e de uma forma centrada na privacidade do utilizador, uma vez que os dados permanecem no dispositivo. De acordo com o Director de Gestão de Produtos do Google, “torna a aprendizagem da máquina muito mais acessível”

Os programadores podem utilizar as APIs do Vision no ML Kit para APIs de análise de vídeo e imagem para etiquetar imagens e detectar códigos de barras, texto, rostos e objectos. Isso pode ser usado para o desenvolvimento de várias aplicações avançadas e integração ML, como leitura de código de barras, detecção de rostos, etiquetagem de imagens, detecção e rastreamento de objetos. Além disso, existem APIs de processamento de linguagem natural para identificar e traduzir entre 58 idiomas e fornecer sugestões de resposta. Como resultado, hoje, mais de 25.000 aplicativos no Android e iOS fazem uso dos recursos do ML Kit.

A versão original do ML Kit foi fortemente integrada ao Firebase, e para maior flexibilidade, enquanto implementava em aplicativos, o Google anunciou recentemente que estava disponibilizando todas as APIs on-device em um novo SDK autônomo do ML Kit que não requer mais um projeto do Firebase. Isso dá aos desenvolvedores acesso aos benefícios exclusivos que o on-device versus o que a cloud ML oferece.

Download do nosso aplicativo móvel

De acordo com o Google, se o ML Kit não atender completamente as necessidades dos desenvolvedores, os desenvolvedores podem procurar modelos alternativos, e como treinar e usar modelos ML personalizados no seu aplicativo Android. “Se as soluções ML chave na mão não atendem às suas necessidades, o TensorFlow Hub deve ser a sua primeira porta de chamada. Ele é um repositório de modelos de ML do Google e da comunidade de pesquisa mais ampla. Os modelos do site estão prontos para uso na nuvem, em um navegador web ou em um aplicativo no dispositivo”, de acordo com o Google

>

O que mais é novo?

Além de modelos chave de visão como MobileNet e EfficientNet, o repositório também ostenta modelos alimentados pelas últimas pesquisas como a classificação de vinhos para 400.000 vinhos populares, classificação de produtos de supermercados dos EUA para 100.000 produtos, reconhecimento de marcos por continente, modelo CropNet da Brain Accra para o reconhecimento de doenças da folha de mandioca, reconhecimento de doenças de plantas da AgriPredict que detecta doenças em milho e planta de tomate.

Besides, com o grande repositório de modelos base, os desenvolvedores também podem treinar os seus próprios modelos. Para muitos casos de uso comum, estão disponíveis ferramentas amigáveis para os desenvolvedores. Além do AutoML Vision Edge do Firebase, a equipe do TensorFlow lançou o TensorFlow Lite Model Maker no início deste ano para dar aos desenvolvedores mais opções sobre o modelo base que suportam mais casos de uso. Atualmente, o Model Maker TensorFlow Lite suporta duas tarefas ML comuns, que é a classificação de texto e imagem.

O Model Maker TensorFlow Lite pode ser executado em sua própria máquina de desenvolvimento ou em computadores portáteis de aprendizagem on-line do Google Colab. Seguindo em frente, a equipe do Android planeja melhorar as ofertas existentes e adicionar novos casos de uso.

Once desenvolvedores selecionaram um modelo ou treinaram seu modelo, há novas ferramentas fáceis de usar para ajudá-los a integrá-los ao seu aplicativo Android sem ter que converter tudo em ByteArrays, com encadernação do modelo ML com o Android Studio 4.1. Isto permite aos desenvolvedores importar qualquer modelo TFLite, ler a assinatura de entrada/saída do modelo e usá-lo com apenas algumas linhas de código que chama a biblioteca de código aberto TensorFlow Lite Android Support Library.

What Do You Think?

Subscreva a nossa Newsletter

Receba as últimas actualizações e ofertas relevantes, partilhando o seu e-mail.

Deixe um comentário