Laut Mark Gurman soll die visuelle Intelligenz-Funktion noch dieses Jahr auf neue AirPods Pro und die erwarteten Apple Glasses ausgeweitet werden.
- Tim Cook hat auf der Quartalsergebnis-Konferenz die visuelle Intelligenz als eine der bisher beliebtesten Apple Intelligence-Funktionen hervorgehoben.
- Die Funktion, die ursprünglich über die Kamera-Steuerungstaste auf dem iPhone 16 eingeführt wurde, ermöglicht das Übersetzen von Schildern, Hinzufügen von Terminen aus Flyern oder das Anzeigen von Restaurantbewertungen.
- Mit iOS 26 wurde die Funktion erweitert und ist nun auch über Screenshots auf dem gesamten iPhone-Bildschirm nutzbar, beispielsweise um Text-URLs in anklickbare Links zu verwandeln.
- Insider-Informationen von Mark Gurman deuten darauf hin, dass Apple die visuelle Intelligenz auf kommende Geräte ausweiten will.
- Ein erwartetes, hochpreisiges AirPods Pro 3-Modell mit integrierter Kamera soll die visuelle Intelligenz als Kernfunktion erhalten.
- Ebenso sollen die lang erwarteten Apple Glasses die Umgebung analysieren und Informationen für den Träger aufbereiten, wobei die visuelle Intelligenz eine zentrale Rolle spielen wird.
- Beide Produkte werden Gerüchten zufolge noch in diesem Jahr vorgestellt.
Quelle: 9to5Mac
Hinweis: Dieser Artikel wurde mithilfe von KI erstellt.

