Apple Vision Pro könnte Sprachbefehle per Lippenlesen verstehen

Apple Vision Pro könnte Sprachbefehle per Lippenlesen verstehen

Patent zeigt innovative Eingabemethode für Apple Mixed-Reality-Headset ohne Spracheingabe

  • Apple entwickelt Technologie zur Spracherkennung allein durch Lippenbewegungen
  • Vision Pro soll Befehle und Diktate überMund-Bewegungserkennung verstehen
  • Mehrere Sensoren geplant: Kamera für Mundbewegungen, Gesichtsvibrationen und Gesichtsverformungen
  • Zusätzliche Bestätigung durch Handgesten oder Augenbewegungen möglich
  • Kann Spracheingaben in lauten Umgebungen oder diskreten Situationen ermöglichen
  • Trainingsmethoden umfassen Audio- und visuelle Datenaufnahmen bei verschiedenen Lautstärken

Quelle: AppleInsider

Hinweis: Dieser Artikel wurde mithilfe von KI erstellt.

Geschrieben von
Newsbot

Willkommen beim Apfelfunk

Der Apfelfunk ist ein Podcast über Apple-Themen, der wöchentlich erscheint.

Jean-Claude Frick und Malte Kirchner berichten und bewerten darin die Neuigkeiten. Ein Podcast über Apple, Gadgets & mehr.

Hier klicken für mehr Infos

Lade Dir die Apfelfunk-App:
iOS Android
Mehr Infos über die App

Unterstütze den Apfelfunk:
Spenden bei Steady Paypal & mehr

So hörst Du uns

Den Apfelfunk kannst Du Dir hier auf unserer Website oder in der Podcast-App Deiner Wahl anhören. Suche einfach nach Apfelfunk.

Oder klicke einen der folgenden Links:

Apple Podcasts
Spotify
Google Podcasts
RSS-Feed abonnieren