ML Kit
ML Kit es la solución de Google para integrar el aprendizaje automático personalizado en las aplicaciones móviles y se presentó en 2018 en su conferencia I/O. ML Kit ofrece la innovación de aprendizaje automático de Google en el dispositivo a los desarrolladores de aplicaciones móviles, para ayudarles a realizar experiencias personalizadas en sus aplicaciones, lo que incluye herramientas como la traducción de idiomas, el reconocimiento de textos, la detección de objetos, etc. ML Kit ayuda a identificar, analizar y comprender los datos visuales y de texto en tiempo real, y de una manera centrada en la privacidad del usuario, ya que los datos permanecen en el dispositivo. Según el director de gestión de productos de Google, «hace que el aprendizaje automático sea mucho más accesible».
Los desarrolladores pueden utilizar las API de visión bajo ML Kit for Video y las API de análisis de imágenes para etiquetar imágenes y detectar códigos de barras, texto, caras y objetos. Esto puede utilizarse para el desarrollo de varias aplicaciones avanzadas y la integración de ML, como el escaneo de códigos de barras, la detección de rostros, el etiquetado de imágenes, la detección y el seguimiento de objetos. Además, existen API de procesamiento del lenguaje natural para identificar y traducir entre 58 idiomas y proporcionar sugerencias de respuesta. Como resultado, hoy en día, más de 25.000 aplicaciones en Android e iOS hacen uso de las características de ML Kit.
La versión original de ML Kit estaba estrechamente integrada con Firebase, y para una mayor flexibilidad, mientras se implementa en las aplicaciones, Google anunció recientemente que estaba haciendo todas las APIs en el dispositivo disponibles en un nuevo SDK ML Kit independiente que ya no requiere un proyecto Firebase. Esto permite a los desarrolladores acceder a las ventajas únicas que ofrece el ML en el dispositivo frente al ML en la nube.
Descarga nuestra aplicación móvil
Según Google, si ML Kit no satisface completamente las necesidades de los desarrolladores, estos pueden buscar modelos alternativos, y cómo entrenar y utilizar modelos ML personalizados en su aplicación Android. «Si las soluciones ML llave en mano no se adaptan a sus necesidades, TensorFlow Hub debería ser su primer puerto de escala. Se trata de un repositorio de modelos ML de Google y de la comunidad investigadora en general. Los modelos del sitio están listos para su uso en la nube, en un navegador web o en una aplicación en el dispositivo», según Google
¿Qué más hay de nuevo?
Además de modelos de visión clave como MobileNet y EfficientNet, el repositorio también cuenta con modelos impulsados por las últimas investigaciones, como la clasificación de vinos para 400.000 vinos populares, la clasificación de productos de supermercados de EE.UU. para 100.000 productos, el reconocimiento de puntos de referencia por continente, el modelo CropNet de Brain Accra para reconocer la enfermedad de las hojas de la yuca, el reconocimiento de enfermedades vegetales de AgriPredict que detecta enfermedades en el maíz y la planta de tomate.
Además, con el gran repositorio de modelos base, los desarrolladores también pueden entrenar sus propios modelos. Hay herramientas fáciles de desarrollar para muchos casos de uso comunes. Además de AutoML Vision Edge de Firebase, el equipo de TensorFlow lanzó TensorFlow Lite Model Maker a principios de este año para dar a los desarrolladores más opciones sobre el modelo base que soportan más casos de uso. TensorFlow Lite Model Maker admite actualmente dos tareas comunes de ML, que son la clasificación de texto e imágenes.
El TensorFlow Lite Model Maker puede ejecutarse en su propia máquina de desarrollador o en los cuadernos de aprendizaje automático en línea de Google Colab. En el futuro, el equipo de Android planea mejorar las ofertas existentes y añadir nuevos casos de uso.
Una vez que los desarrolladores han seleccionado un modelo o entrenado su modelo, hay nuevas herramientas fáciles de usar para ayudar a integrarlos en su aplicación Android sin tener que convertir todo en ByteArrays, con ML Model binding con Android Studio 4.1. Esto permite a los desarrolladores importar cualquier modelo TFLite, leer la firma de entrada/salida del modelo y utilizarlo con sólo unas pocas líneas de código que llaman a la biblioteca de soporte de Android de TensorFlow Lite de código abierto.
Suscríbete a nuestra Newsletter
Obtén las últimas actualizaciones y ofertas relevantes compartiendo tu email.