Core ML verstehen
Videovortrag: Machine Learning für iOS-Applikationen
Welche beeindruckenden Ergebnisse Apples neue Core ML-Technologie abliefern kann, zeigen zahlreiche Entwickler-Videos, die den Einsatz kleiner Testapplikationen demonstrieren, die mit Hilfe der von Apple bereitgestellten Beispiel-Modelle kompiliert wurden.
So bietet Cupertino auf seinem Entwickler-Portal mehrere ML-Pakete an, die Objekte vor dem Sucher der iPhone-Kamera erkennen und identifizieren können. Das nur 5MB kleine Core ML-Model „SqueezeNet“ ist etwa in der Lage Live-Bilder einer von rund 1000 unterschiedlichen Kategorien wie Bäumen, Tiere, Lebensmittel, Menschen und Co. zuzuordnen.
Doch wie lassen sich die Dateien sinnvoll in eigenen iOS-Applikationen einsetzen? Eine Frage, die Meghan Kane jetzt in dem kostenlos verfügbaren Videovortrag „Bringing Machine Learning to your iOS Apps“ beantwortet.
Die ehemalige SoundCloud-Entwicklerin erklärt wann der Einsatz von Machine Learning-Technologien Sinn macht, schaut sich Apples WWDC-Beispiel an und empfiehlt Werkzeuge, die die Arbeit mit der neuen iOS-Technologie vereinfachen können. Eine Videoempfehlung, für die ihr 40 Minuten Freizeit einplanen müsst.