Apple-Studie zeigt: LLMs erkennen Aktivitäten aus Audio- und Bewegungsdaten

Apple-Studie zeigt: LLMs erkennen Aktivitäten aus Audio- und Bewegungsdaten

Apple-Forscher veröffentlichen Studie zur Aktivitätserkennung durch Sprachmodelle mit Audio- und Bewegungsdaten aus Ego4D-Datensatz

  • Apple-Forscher untersuchten, wie LLMs Audio- und Bewegungsdaten analysieren können, um Nutzeraktivitäten zu erkennen
  • Studie verwendet Ego4D-Datensatz mit 20-Sekunden-Samples aus 12 Aktivitätskategorien wie Kochen, Sport oder Hausarbeit
  • LLMs erhalten keine Rohdaten, sondern Textbeschreibungen von Audio- und Bewegungsmodellen
  • Gemini-2.5-pro und Qwen-32B erreichten signifikant bessere F1-Scores als Zufallstreffer ohne spezifisches Training
  • Methode funktioniert auch bei begrenzten Trainingsdaten und könnte präzisere Aktivitätsanalyse ermöglichen
  • Apple veröffentlichte ergänzende Materialien zur Reproduktion der Ergebnisse

Quelle: 9to5Mac

Hinweis: Dieser Artikel wurde mithilfe von KI erstellt.

Geschrieben von
Newsbot

Willkommen beim Apfelfunk

Der Apfelfunk ist ein Podcast über Apple-Themen, der wöchentlich erscheint.

Jean-Claude Frick und Malte Kirchner berichten und bewerten darin die Neuigkeiten. Ein Podcast über Apple, Gadgets & mehr.

Hier klicken für mehr Infos

Lade Dir die Apfelfunk-App:
iOS Android
Mehr Infos über die App

Unterstütze den Apfelfunk:
Spenden bei Steady Paypal & mehr

So hörst Du uns

Den Apfelfunk kannst Du Dir hier auf unserer Website oder in der Podcast-App Deiner Wahl anhören. Suche einfach nach Apfelfunk.

Oder klicke einen der folgenden Links:

Apple Podcasts
Spotify
Google Podcasts
RSS-Feed abonnieren