Beim international renommierten wissenschaftlichen Wettbewerb ImageCLEF bestand die Herausforderung in der Sektion LifeClef in Jahr 2017 unter anderem in der Klassifikation von 1500 Vogelarten anhand ihres Gesangs in über 12.000 Audio-Aufnahmen (BirdCLEF 2017). Unter den ca. 100 Anmeldungen wurden schlussendlich von fünf internationalen Forschungsgruppen Ergebnisse eingereicht. ESF-Promotionsstudent Stefan Kahl von der Stiftungsjuniorprofessur Media Computing an der Fakultät für Informatik der TU Chemnitz erarbeitete in Kooperation mit Prof. Dr. Holger Klinck von der Cornell University (Cornell Lab of Ornithology, CLO) und Prof. Ritter von der Hochschule Mittweida (FB Medieninformatik) ein Konzept, das die Audiosignale von mehr als 36.000 Trainings-Samples in Bilder konvertiert um damit ein künstliches neuronales Netz zu trainieren, welches möglichst gut auf Vogelgesang adaptiert. Mit diesem Ansatz konnte eine Genauigkeit von fast 70% erreicht werden, was den 2. Platz hauchdünn hinter der Spitzenpositionen im Wettbewerb bedeutet. Die Ergebnisse wurden auf der ImageCLEF Konferenz in Dublin mit einem entsprechenden wissenschaftlichen Beitrag präsentiert.
In den folgenden Monaten soll gemeinsam mit dem CLO ein mobiles Monitoring-System entstehen, das die Erkennung von 650 Vogelarten der USA in Echtzeit ermöglicht. Ziel ist die flächendeckende Überwachung von Migration und Bestand zur Erhaltung der Biodiversität gefährdeter Regionen. Ein erster Prototyp ist bereits jetzt auf einem Raspberry Pi lauffähig und soll im Mai 2018 mit Beginn der Brutzeit im Nord-Osten der USA zum Einsatz kommen. Der aktuelle Stand ist unter der Live Demo und Android App ist auf der Webseite des Cornell Lab of Ornithology zu sehen: https://birdnet.cornell.edu/
Radiobeitrag im Deutschlandradio: http://ondemand-mp3.dradio.de/file/dradio/2018/04/11/birdnet_mit_kuenstlicher_intelligenz_vogelarten_dlf_20180411_1645_0f30779c.mp3
Kommentare