Auf Basis der Vorarbeiten zur Klassifikation von Vogelgesängen basierend auf neuronalen Faltungsnetzen (CNNs — Convolutional Neural Networks) gelang es uns in einem eigens dafür aufgebauten Audio-Datensatz einen Algorithmus zu entwickeln, der es erlaubt über 94 Klassen aus dem Bereich assistiertes Leben (AAL) automatisiert zu erkennen. Dazu gehören die Kategorien Musik, Tiere, menschliche Geräusche und heimische/Innenraumgeräusche. Die Güte der Klassifikation ist mit über 82% Accuracy vergleichbar mit den Spitzenwerten anderer Benchmarks aus dem Bereich Geräusch/Audioklassifikation. Die Ergebnisse wurden erfolgreich bei Top-Level A‑Konferenz ACM Multimedia eingereicht und werden dort in diesem Herbst in Nizza im Rahmen eines Demonstrators vorgestellt [1]. Das Demo-Video kann unter https://youtu.be/PpiL89t9_kY eingesehen werden.
Kommentare