Tools zur Erstellung von Machine-Learning-Modellen auf Android

ML Kit

ML Kit ist Googles Lösung für die Integration von maßgeschneidertem maschinellem Lernen in mobile Anwendungen und wurde 2018 auf der I/O-Konferenz vorgestellt. ML Kit stellt Entwicklern von mobilen Apps Googles On-Device-Innovationen im Bereich des maschinellen Lernens zur Verfügung, um ihre Anwendungen mit Tools wie Sprachübersetzung, Texterkennung, Objekterkennung usw. zu individualisieren. ML Kit hilft bei der Identifizierung, Analyse und dem Verstehen von Bild- und Textdaten in Echtzeit, und zwar unter Wahrung der Privatsphäre des Nutzers, da die Daten auf dem Gerät verbleiben. Laut Googles Director of Product Management „macht es maschinelles Lernen viel zugänglicher“

Entwickler können die Vision-APIs unter ML Kit für Video- und Bildanalyse-APIs verwenden, um Bilder zu kennzeichnen und Barcodes, Text, Gesichter und Objekte zu erkennen. Dies kann für verschiedene fortgeschrittene Anwendungsentwicklung und ML-Integration wie Barcode-Scannen, Gesichtserkennung, Bildbeschriftung, Objekterkennung und -verfolgung verwendet werden. Außerdem gibt es APIs für die Verarbeitung natürlicher Sprache, um 58 Sprachen zu erkennen und zu übersetzen und Antwortvorschläge zu liefern. Infolgedessen nutzen heute mehr als 25.000 Anwendungen auf Android und iOS die Funktionen von ML Kit.

Die ursprüngliche Version von ML Kit war eng mit Firebase integriert, und für mehr Flexibilität bei der Implementierung in Apps kündigte Google kürzlich an, dass es alle geräteinternen APIs in einem neuen eigenständigen ML Kit SDK zur Verfügung stellt, das kein Firebase-Projekt mehr erfordert. Dies gibt Entwicklern Zugang zu den einzigartigen Vorteilen, die On-Device gegenüber Cloud ML bietet.

Laden Sie unsere Mobile App herunter

Wenn ML Kit die Bedürfnisse von Entwicklern nicht vollständig abdeckt, können sie laut Google nach alternativen Modellen suchen und erfahren, wie sie eigene ML-Modelle in ihrer Android-App trainieren und verwenden können. „Wenn die schlüsselfertigen ML-Lösungen nicht Ihren Anforderungen entsprechen, sollte TensorFlow Hub Ihre erste Anlaufstelle sein. Es ist ein Repository von ML-Modellen von Google und der breiteren Forschungsgemeinschaft. Die Modelle auf der Website können in der Cloud, in einem Webbrowser oder in einer App auf einem Gerät verwendet werden“, so Google

Was ist sonst noch neu?

Zusätzlich zu den wichtigsten Bildverarbeitungsmodellen wie MobileNet und EfficientNet enthält das Repository auch Modelle, die auf neuesten Forschungsergebnissen beruhen, wie z. B. die Weinklassifizierung für 400.000 beliebte Weine, die Produktklassifizierung für 100.000 Produkte in US-Supermärkten, die Erkennung von Wahrzeichen auf kontinentaler Basis, das CropNet-Modell von Brain Accra zur Erkennung von Maniok-Blattkrankheiten und die Erkennung von Pflanzenkrankheiten von AgriPredict, das Krankheiten in Mais und Tomatenpflanzen erkennt.

Außerdem können Entwickler mit dem großen Fundus an Basismodellen auch ihre eigenen Modelle trainieren. Für viele gängige Anwendungsfälle gibt es entwicklerfreundliche Tools. Zusätzlich zum AutoML Vision Edge von Firebase hat das TensorFlow-Team Anfang des Jahres den TensorFlow Lite Model Maker auf den Markt gebracht, um Entwicklern mehr Auswahlmöglichkeiten für das Basismodell zu geben, die mehr Anwendungsfälle unterstützen. TensorFlow Lite Model Maker unterstützt derzeit zwei gängige ML-Aufgaben, nämlich Text- und Bildklassifizierung.

Der TensorFlow Lite Model Maker kann auf Ihrem eigenen Entwicklerrechner oder auf Google Colab Online-Notebooks für maschinelles Lernen laufen. Für die Zukunft plant das Android-Team, die bestehenden Angebote zu verbessern und neue Anwendungsfälle hinzuzufügen.

Wenn Entwickler ein Modell ausgewählt oder ihr Modell trainiert haben, gibt es neue, einfach zu bedienende Tools, die ihnen helfen, sie in ihre Android-App zu integrieren, ohne alles in ByteArrays konvertieren zu müssen, mit ML Model Binding mit Android Studio 4.1. Dies ermöglicht es Entwicklern, jedes TFLite-Modell zu importieren, die Eingabe/Ausgabe-Signatur des Modells zu lesen und es mit nur ein paar Zeilen Code zu verwenden, der die Open-Source TensorFlow Lite Android Support Library aufruft.

Was denken Sie?

Abonnieren Sie unseren Newsletter

Erhalten Sie die neuesten Updates und relevante Angebote, indem Sie Ihre E-Mail teilen.

Schreibe einen Kommentar