Apple zeigt zukunftsweisende neue Technologien für die App-Entwicklung

Apple hat heute mehrere innovative Technologien gezeigt, mit denen Entwickler leistungsstarke neue Apps viel schneller und einfacher entwickeln können. SwiftUI ist ein bahnbrechendes Entwicklungs-Framework, mit dem es einfacher denn je wird leistungsstarke Benutzeroberflächen zu erstellen. ARKit 3, RealityKit und Reality Composer sind fortschrittliche Werkzeuge, mit denen Entwickler noch einfacher packende AR-Erlebnisse für Apps für Konsumenten und Unternehmen entwickeln können. Neue Tools und APIs vereinfachen den Prozess iPad Apps auf den Mac zu bringen enorm. Und Updates für Core ML und Create ML ermöglichen leistungsstärkere und optimierte Apps für maschinelles Lernen direkt auf dem Gerät.

SwiftUI

SwiftUI bietet ein leistungsstarkes und intuitives neues Benutzeroberflächen-Framework, um anspruchsvolle App-UIs zu erstellen. Unter Verwendung von einfachem, leicht verständlichem deklarativen Code können Entwickler funktionsreiche Benutzeroberflächen inklusive flüssiger Animationen kreieren. SwiftUI spart Entwicklern Zeit, indem es sehr viele automatische Funktionalitäten bietet, darunter Oberflächengestaltung, Dunkelmodus, Bedienungshilfen, Unterstützung für von rechts-nach-links laufende Sprachen und Internationalisierung. SwiftUI Apps laufen nativ und sind blitzschnell. Und da SwiftUI dieselbe API ist, die auch in iOS, iPadOS, macOS, watchOS und tvOS integriert ist, können Entwickler auf allen Plattformen von Apple schneller und einfacher lebendige, native Apps entwickeln.

Xcode 11 erweckt SwiftUI zum Leben

Ein neues, in Xcode 11 integriertes graphisches Werkzeug zur Gestaltung des UIs macht es UI-Entwicklern ganz einfach mit SwiftUI eine Benutzeroberfläche zu gestalten – ohne, dass sie hierfür eine Codezeile schreiben müssen. Swift Code wird automatisch generiert und bei Modifikationen an diesem Code erscheinen die Änderungen automatisch im visuellen Gestaltungswerkzeug. Nun können Entwickler automatische Echtzeit-Vorschauen zu Aussehen und Verhalten ihrer UI erhalten, während sie ihren Code assemblieren, testen und überarbeiten. Mit der Möglichkeit fließend zwischen grafischem Design und Code schreiben zu wechseln, macht die UI-Entwicklung mehr Spaß und wird effizienter. Außerdem können Softwareentwickler und UI-Designer enger zusammenarbeiten. Die Vorschauen können direkt auf verbundenen Apple-Geräten, wie iPhone, iPad, iPad touch, Apple Watch und Apple TV laufen, was Entwickler einen Eindruck vermittelt, wie die App auf Multi-Touch reagiert oder mit der Kamera und integrierten Sensoren funktioniert – all das geschieht live, während der Erstellung der Oberfläche.

Augmented Reality

ARKit 3 stellt den Menschen ins Zentrum der AR. Mit Motion Capture können Entwickler die Bewegungen von Menschen in ihre App integrieren und mit People Occlusion können AR-Inhalte auf natürliche Weise vor oder hinter Personen angezeigt werden. Dadurch werden AR-Erlebnisse noch intensiver und Nutzer können mit lustigen Apps Spaß haben, die an Green Screens erinnern. ARKit 3 ermöglicht es der Frontkamera außerdem bis zu drei Gesichter zu verfolgen und bringt simultane Unterstützung für Front- und Rückkamera. Es ermöglicht auch gemeinsame Sessions, mit denen man noch schneller in geteilte AR-Erlebnisse eintauchen kann.

RealityKit wurde von Grund auf für AR entwickelt. Es bietet fotorealistisches Rendering, Umgebungsabbildung und Unterstützung für Kameraeffekte wie Bildrauschen und Bewegungsunschärfe, was virtuelle Inhalte kaum noch von der Realität unterscheidbar macht. RealityKit bietet außerdem Animationen, Physik und räumlichen Klang und Entwickler können die Möglichkeiten von RealityKit mittels neuen RealityKit Swift API einsetzen. Mit Reality Composer, einer neuen App für iOS, iPadOS und Mac, erstellen Entwickler ganz einfach Prototypen für AR-Erlebnisse und produzieren diese, auch ohne vorherige Erfahrung mit 3D. Mit einer einfachen Drag & Drop-Benutzeroberfläche und einer Mediathek mit hochwertigen 3D-Objekten und -Animationen platzieren, bewegen und rotieren Entwickler AR-Objekte in Reality Composer, um eine AR-Erfahrung zu erstellen. Diese können sie in Xcode direkt in eine App integrieren oder in AR Quick Look exportieren.

iPad Apps einfacher auf den Mac bringen

Mit neuen Werkzeugen und APIs ist es einfacher denn je, iPad Apps auf den Mac zu bringen. Mit Xcode können Entwickler ein bestehendes iPad-Projekt öffnen und einfach ein Feld markieren, um automatisch grundlegende Mac- und Windowing-Funktionen hinzuzufügen sowie Plattform-spezifischen Elementen wie Touch-Steuerung für Tastatur und Maus anzupassen – was einen Riesenvorsprung beim Erstellen einer nativen Mac Version ihrer App bedeutet. Mac und iPad Apps haben denselben Projekt- und Quellcode. Alle Änderungen am Code werden also in die iPadOS- und die macOS-Versionen der App übernommen. Entwickler sparen wertvolle Zeit und Ressourcen, da ein Team an beiden Versionen der Apps arbeiten kann. Nutzer können außerdem mit der Mac- und iPad-Version ihrer App die speziellen Möglichkeiten jeder Plattform nutzen, wie Präzision und Geschwindigkeit beim Benutzen von Tastatur, Maus, Trackpad und spezieller Mac-Funktionen, wie der Touch Bar.

Core ML und Create ML

Core ML 3 unterstützt die Beschleunigung mehrerer Typen fortschrittlicher Modelle für maschinelles Lernen in Echtzeit. Mit den jetzt in Core ML über 100 unterstützten Modellebenen können Apps die modernsten Modelle nutzen und so Erlebnisse bieten, die Sehen, natürliche Sprache und Reden besser denn je verstehen. Und zum ersten Mal können Entwickler Modelle für maschinelles Lernen mit der Modellanpassung direkt auf dem Gerät aktualisieren. Diese Technologie gibt Entwicklern die Möglichkeit, personalisierte Features zu bieten, ohne die Privatsphäre des Nutzers zu beeinträchtigen. Mit Create ML, einer App speziell zur Entwicklung von maschinellem Lernen, können Entwickler Modelle für das maschinelle Lernen erstellen, ohne Code zu schreiben. Das Training mehrerer Modelle mit verschiedenen Datensätzen kann für neue Modelltypen verwendet werden, wie Objekterkennung, Aktivitäts- und Geräuschklassifizierung.

Apple Watch

Mit Einführung von watchOS 6 und dem App Store auf der Apple Watch können Entwickler jetzt Apps für die Apple Watch erstellen, die völlig unabhängig funktionieren, sogar ganz ohne ein iPhone.

Entwickler können sich auch die Neural Engine von Apple auf der Apple Watch Series 4 mit Core ML zunutze machen. Durch Integration von Core ML-trainierten Modellen in ihre Apps und Interpretationen von Inputs direkt auf dem Gerät erhalten Nutzer Zugriff auf intelligentere Apps. Mit einer neuen API für Audiostreaming können Benutzer nur mit ihrer Apple Watch Inhalte ihrer bevorzugten Medienapps anderer Anbieter streamen. Eine erweiterte Runtime API gibt Apps zusätzliche Zeit, um Aufgaben auf der Apple Watch zu erledigen, während die App im Vordergrund bleibt, selbst wenn sich das Display ausschaltet. Dazu gehört auch der Zugriff auf zugelassene Sensoren, die Herzfrequenz, Standort und Bewegung messen.

Schnell, einfach und sicher mit der Apple-ID anmelden

‚Anmelden mit Apple‘ macht es Nutzern ganz einfach, sich in Apps und Webseiten mit ihrer bestehenden Apple-ID anzumelden. Statt Formulare auszufüllen, E-Mail-Adressen zu verifizieren oder Passwörter festzulegen, können Nutzer einfach ihre Apple-ID verwenden, um einen Account einzurichten und sofort damit zu beginnen, die App zu nutzen und mehr Zeit für ihre eigentliche Beschäftigung zu haben. Dabei sind alle Accounts mit der Zwei-Faktor-Authentifizierung geschützt. ‚Anmelden mit Apple‘ ist für Entwickler eine tolle Möglichkeit, ihre Apps noch sicherer zu machen. Es enthält auch ein neues Feature, das vor Betrug schützt und dank dessen Entwickler sich sicher sein können, dass es sich bei neuen Nutzern um reale Personen, und nicht um Bots oder künstliche Accounts handelt. Mit einem neuen Relay-Service für E-Mails mit dem Schwerpunkt Datenschutz müssen Nutzer ihre persönliche E-Mail-Adresse nicht mehr preisgeben und bekommen dennoch wichtige Mitteilungen vom App-Entwickler. Und da Apple die App-Aktivitäten seiner Benutzer nicht verfolgt und keine App-Nutzungsprofile erstellt, bleiben Informationen über das Unternehmen des Entwicklers und dessen Nutzer beim Entwickler.

Weitere Features für Entwickler

  • PencilKit macht es Entwicklern einfach, ihren Apps Unterstützung für den Apple Pencil hinzuzufügen, und es enthält die überarbeitete Werkzeugpalette.
  • SiriKit fügt Unterstützung für Audioapps von Drittanbietern hinzu, darunter Musik, Podcasts und Hörbücher. Damit können Entwickler Siri jetzt direkt in ihre iOS, iPadOS und watchOS Apps integrieren, und Nutzer steuern ihre Audiowiedergabe mit einem einfachen Sprachbefehl.
  • MapKit ermöglicht Entwicklern jetzt eine Reihe neuer Features wie Vektor-Overlays, Point-of-Interest-Filter, Kamerazoom- und Schwenkgrenzen sowie Unterstützung des Dunkelmodus.
  • Zusätzlich zu Sprachverbesserungen für SwiftUI, bietet Swift 5.1 Module Stability – die wesentliche Grundlage zum Erstellen binärkompatibler Frameworks in Swift.
  • Neue leistungsstarke Metal Device-Produktfamilien erleichtern das Codesharing zwischen mehreren GPU Typen auf allen Plattformen von Apple. Gleichzeitig macht die Unterstützung von iOS Simulator das Erstellen von Metal Apps für iOS und iPadOS einfach.