2024-03-19 | Anmelden
 
 

Publikation

Akustische Präsenzermittelung von Walen in Unterwasseraufnahmen

whale detection

Spek­tro­gramm (li.) und Pseu­do Wign­er-Ville Dis­tri­b­u­tion (re.) [Ou et al. (2015), JASA in Klinck & Rit­ter, DCLDE Work­shop, Präsen­ta­tion, S.14]

Dr. Hol­ger Klinck vom Cor­nell Lab of Ornithol­o­gy der Cor­nell Uni­ver­si­ty in NY, USA und Jun.-Prof. Dr. Marc Rit­ter von der Junior­pro­fes­sur Media Com­put­ing der TU Chem­nitz entwick­el­ten eine automa­tisierte Meth­ode zur Detek­tion ver­schieden­er Walarten anhand von akustis­chen Unter­wasser­auf­nah­men, die mit Hil­fe von soge­nan­nten Hydropho­nen (Unter­wasser­mikro­fone) aufgenom­men wur­den. Der erste Schritt dieser Auswer­tung von Langzeit­dat­en ist die Berech­nung ein­er Fouri­er-Trans­for­ma­tion (FFT) der aufgeze­ich­neten Dat­en (200 Hz Abtas­trate). 5 Sekun­den Audio­dat­en wer­den so in ein Spek­tro­gramm mit der Auflö­sung 30 x 50 Pix­el umge­wan­delt. Nach dem Entrauschen des Spek­tro­gramms kön­nen die Graustufen schließlich als JPEG exportiert und als Train­ings- und Test­dat­en mit Hil­fe maschineller Komi­tee-basiert­er Lern­ver­fahren der Boost­ing-Klasse weit­er­ver­ar­beit­et wer­den. Die Ergeb­nisse der gemein­samen Forschungsar­beit stellte Dr. Hol­ger Klinck im Rah­men des 7. inter­na­tionalen Work­shops für Detec­tion, Clas­si­fi­ca­tion, Local­iza­tion, and Den­si­ty Esti­ma­tion (DCLDE) in San Diego, Kali­fornien, USA vor.

Mit ihrer Forschungsar­beit erziel­ten die bei­den Insti­tute im diesjähri­gen Work­shop die besten Resul­tate. Auf der Ver­ar­beitung dieser Massendat­en auf­bauend, soll zukün­ftig eben­falls die Präzi­sion im maschinellen Ler­nen noch weit­er erhöht werden.

Pub­lika­tion: Klinck, Hol­ger & Rit­ter, Marc. Auto­mated iden­ti­fi­ca­tion of blue and fin whale vocal­iza­tions using an ensem­ble-based clas­si­fi­ca­tion sys­tem. In: The 7th Inter­na­tional DCLDE [Detec­tion, Clas­si­fi­ca­tion, Local­iza­tion, and Den­sity Esti­ma­tion] Work­shop 13.–16.07.2015, La Jol­la, CAUSA, Präsen­ta­tion, 1. Platz bei der Detek­tion von Barten­walen im Nieder­fre­quenzbere­ich. [Link]

 

Explorative Studie zur Eliminierung von Gesichtern durch Vergessen

Methodik der Datenreduktion bestehend aus Schnittanalyse und Gesichtsdetektion. [aus: Ritter, Marc; Bahr, Gisela S., ICME Workshops, Präsentation, S.17]

Methodik der Datenre­duk­tion beste­hend aus Schnit­t­analyse und Gesichts­de­tek­tion. [aus: Rit­ter & Bahr, ICME Work­shops, Präsen­ta­tion, S.17]

Prof. Dr. Dr. Gisela Susanne Bahr vom Depart­ment of Bio­med­ical Engi­neer­ing des Flori­da Insti­tute of Tech­nol­o­gy und Jun.-Prof. Dr. Marc Rit­ter von der Junior­pro­fes­sur Media Com­put­ing der TU Chem­nitz präsen­tierten im Rah­men des Human Mem­o­ry-Inspired Mul­ti­me­dia Orga­ni­za­tion and Preser­va­tion (HMMP) Work­shops auf der renom­mierten Kon­ferenz IEEE Inter­na­tion­al Con­fer­ence on Mul­ti­me­dia and Expo (ICME) 2015 in Tori­no, Ital­ien die Ergeb­nisse ihrer gemein­schaftlichen Studie. Inspiri­ert von Aspek­ten des men­schlichen Vergessens, wur­den Kri­te­rien unter­sucht, mit deren Hil­fe Gesichter in großen Datenbestän­den in Erin­nerung behal­ten oder gelöscht wer­den kön­nen. Als Daten­ma­te­r­i­al diente die Analyse von 122 Episo­den zusam­menge­fasster 100 sekündi­ger Web­casts der deutschen Tagess­chau vom April und Mai 2011. Dabei wur­den rel­e­vante Merk­male iden­ti­fiziert und mit maschinell erlern­ten Merk­malen ver­glichen, wobei vor allem die Qual­ität von Gesichtern in unter­schiedlichen Größen und Schär­fee­in­stel­lun­gen eine wichtige Rolle spie­len. Durch gezielte Eli­m­inierung von ähn­lichen oder nicht-adäquat­en Bil­dauf­nah­men ergibt sich ein Poten­tial zur Reduk­tion der spe­icherbaren Gesichts­daten­menge von bis zu 75%.

Pub­lika­tion: Rit­ter, Marc & Bahr, Gisela Susanne. An explorato­ry study to iden­tify rel­e­vant cues for the dele­tion of faces for mul­ti­me­dia retrieval. In: IEEE Inter­na­tional Con­fer­ence on Mul­ti­me­dia & Expo Work­shops on Human Mem­o­ry-Inspired Mul­ti­me­dia Orga­ni­za­tion and Preser­va­tion, Turin, Italy, 29.06.–03.07.2015, S.1–6. [Link]

 

Verbesserung von Farbkalibrierverfahren für Projektoren

Measured color gamut of the Sanyo PDG-DWL 2500 projector with 64³ samples in the camera’s native color space [Quelle: Marcel Heinz; Guido Brunnett: Dense Sampling of 3D Color Transfer Functions Using HDR Photography]

Gemessene Farb­skala des Sanyo PDG-DWL 2500 Pro­jek­tors mit 64³ Sam­ples im nativ­en Far­braum der Kam­era [Quelle: Mar­cel Heinz; Gui­do Brun­nett: Dense Sam­pling of 3D Col­or Trans­fer Func­tions Using HDR Photography]

Local­izeIT Mitar­beit­er Dr. Mar­cel Heinz entwick­elte in Zusam­me­nar­beit mit Prof. Dr. Gui­do Brun­nett von der Pro­fes­sur für Graphis­che Daten­ver­ar­beitung und Visu­al­isierung der Fakultät für Infor­matik an der Tech­nis­chen Uni­ver­sität Chem­nitz eine verbesserte Meth­ode zur Mes­sung von 3D-Farb­trans­fer­funk­tio­nen (engl. Col­or Trans­fer Func­tions — CTF) und präsen­tierten diese gemein­sam im Rah­men des IEEE CCD/PROCAMS 2015 Work­shops auf der CVPR 2015 in Boston — der inter­na­tion­al hochrangig­sten und größten Kon­ferenz auf dem Gebi­et der Muster- und Bilderkennung/Computer Vision.

Die entwick­elte Meth­ode beschle­u­nigt die Bes­tim­mung der CTFs, welche für die Kalib­rierung von Mehrseg­ment-Pro­jek­tion­san­la­gen hin­sichtlich Farb- und Hel­ligkeitswieder­gabe unverzicht­bar sind. Bish­erige Meth­o­d­en zur Mes­sung von Pro­jek­toraus­gaben benöti­gen pro Mes­sung mehrere Sekun­den und weichen meist stark von einem ide­alen RGB-Mod­ell ab. Dadurch sind diese Meth­o­d­en in prax­is­rel­e­van­ten Zeiträu­men wed­er ver­hält­nis­mäßig noch qual­i­ta­tiv zufrieden­stel­lend. Mar­cel Heinz und Gui­do Brun­nett entwick­el­ten unter Benutzung ein­er dig­i­tal­en Spiegel­re­flexkam­era eine Mess­meth­ode mit ein­er wesentlich höheren Sam­pledichte (64x64x64), die die Fehlerquote um ca. 30% reduziert. Dies ist eine wichtige Grund­lage für die zu entwick­el­nden Kalib­ri­erver­fahren im Arbeits­bere­ich “Device­less 3D-Steuerung”.

Pub­lika­tion: Heinz, Mar­cel & Brun­nett, Gui­do. Dense Sam­pling of 3D Col­or Trans­fer Func­tions using HDR pho­tog­ra­phy. In: The IEEE Con­fer­ence on Com­puter Vision and Pat­tern Recog­ni­tion (CVPR) Work­shops, S.25–32. [Link]

 

Diagnose von Augenkrankheiten mittels Bilderkennung

Ste­fan Kahl von der Pro­fes­sur Medi­en­in­for­matik und Jun.-Prof. Dr. Paul Rosen­thal von der Junior­pro­fes­sur Visu­al Com­put­ing entwick­el­ten gemein­sam mit Jun.-Prof. Dr. Marc Rit­ter von der Junior­pro­fes­sur Media Com­put­ing eine Möglichkeit zur automa­tis­chen Beurteilung der Schädi­gungssi­t­u­a­tion von AMD-Patien­ten (alters­be­d­ingte Maku­lade­gen­er­a­tion). Dabei han­delt es sich um die Schädi­gung der Net­zhaut in der Maku­la, also dem Bere­ich des schärf­sten Sehens. Das Forschung­steam ent­warf in sein­er Arbeit einen zwei­di­men­sion­alen Bild­ver­ar­beitungsal­go­tith­mus, um den Ver­lauf des reti­nalen Pig­mentepi­tels (kurz RPE) zu detek­tieren. Weit­er­hin entwick­el­ten sie ein Tool zur Anno­ta­tion von RPE-Ver­läufen, wobei einzelne Stell­größen des kreierten Algo­rith­mus’ automa­tisch an einen vorhan­de­nen Daten­satz angepasst und daraus eine visuelle Darstel­lung der Schädi­gungssi­t­u­a­tion ableit­bar ist.

Ste­fan Kahl präsen­tierte die Ergeb­nisse dieser Arbeit auf dem “Forum Bild­ver­ar­beitung 2014”, ein­er inter­na­tionalen Kon­ferenz des Fraun­hofer Insti­tuts, das sich den Trends in der Bild­ver­ar­beitung im indus­trien­ahen Bere­ich widmet.

Pub­lika­tion: Kahl, Ste­fan; Rit­ter, Marc & Eibl, Max­i­m­il­ian. Automa­tisierte Beurteilung der Schädi­gungssi­t­u­a­tion bei Patien­ten mit alters­be­d­ingter Maku­lade­gen­er­a­tion (AMD). In: Forum Bild­ver­ar­beitung, 27.11. — 28.11.2014, Regens­burg, S. 179 — 190. — Karl­sruhe : KIT Sci­en­tif­ic Pub­lish­ing, 2014 [Link]

 

Erfolgreiche Teilnahme beim TRECVID Instance Search

Im Rah­men ein­er Koop­er­a­tion von Mitar­beit­ern der Stiftungsju­nior­pro­fes­sur Media Com­put­ing und der Pro­fes­sur Medi­en­in­for­matik der Tech­nis­chen Uni­ver­sität Chem­nitz ist es den Nach­wuch­swis­senschaftlern unter Leitung von Jun.-Prof. Dr. Marc Rit­ter zwis­chen April und August 2014 gelun­gen, ein Sys­tem zur Teil­nahme an der wis­senschaftlich renom­mierten Eval­u­a­tion­skam­pagne TREC Video Retrieval Eval­u­a­tion (TRECVID) in der Kat­e­gorie Instance Search zu entwer­fen und zu implementieren.

Die seit 2001 jährlich vom amerikanis­chen Nation­al Insti­tute for Stan­dards and Tech­nolo­gies (NIST) organ­isierten TRECVID Eval­u­a­tion­skam­pag­nen befassen sich mit topak­tuellen Forschung­sprob­le­men, die im all­ge­meinen Kon­text des Infor­ma­tion Retrieval (IR) beson­ders auf inhalts­basierte Suche und Nutzbar­ma­chung dig­i­taler Videos fokussiert. Das Ziel beste­ht darin, die Forschung auf diesen The­menge­bi­eten voranzutreiben, indem große Testkollek­tio­nen zusam­men mit real­is­tis­chen Auf­gaben­stel­lun­gen und einem ein­heitlichen Bew­er­tungsver­fahren veröf­fentlicht und ein Forum zum inter­na­tionalen Ver­gle­ich der Ergeb­nisse gestellt wird.

Für die diesjährige Auf­gaben­stel­lung im Bere­ich Instance Search wurde ein Kor­pus von 464 Stun­den Video­ma­te­r­i­al der BBC Dai­ly-Soap Eas­t­en­ders zur Ver­fü­gung gestellt. Das Ziel bestand darin, bis zu 1.000 ver­schiedene Instanzen (Beispiele) von 30 ver­schiede­nen Objek­ten, Per­so­n­en oder Orten im Kor­pus aufzufind­en. Wis­senschaftlich inter­es­sant wird das Ganze bei genauer­er Betra­ch­tung der Struk­tur der Suchan­frage und der Train­ings­dat­en, die sich von üblichen Objek­t­de­tek­tionsver­fahren deut­lich abgren­zen, da hier statt Tausender an Train­ings­beispie­len eine sehr geringe Anzahl von vier Beispie­len vor­liegt und kein zuvor erlerntes Objek­t­mod­ell zur Anwen­dung gelan­gen darf. Darüber hin­aus ist die Klasse des zu find­en­den Objek­ts oft­mals nur grob definiert: Wird beispiel­sweise nach ein­er roten Plas­tik­flasche gesucht, die Ketchup enthält, muss eine vari­able Objek­terken­nung sowohl bauchige als auch längliche Flaschen iden­ti­fizieren kön­nen, wohinge­gen visuell sehr ähn­lich beschaf­fene Glas­flaschen mit Ketchup nicht erkan­nt wer­den dürfen.

Das achtköp­fige Team von Nach­wuch­swis­senschaftlern hat dabei vielfältige Ansätze und Lösungsstrate­gien ver­fol­gt und intern evaluiert. Am erfol­gver­sprechend­sten erschien der Ansatz ein­er Git­ter-Pyra­mide von MPEG‑7 Deskrip­toren, die auf ein bis fünf aus­gewählten repräsen­ta­tiv­en Bildern pro Kam­er­ae­in­stel­lung berech­net wur­den. Durch diesen dynamis­chen Ansatz war es möglich, die Anzahl der zu analysieren­den Einzel­bilder von fast 42 Mil­lio­nen auf etwa 1,1 Mil­lio­nen zu reduzieren. Weit­ere Verbesserun­gen ließen sich durch eine Analyse des Audio-Mate­ri­als erzie­len, so dass für ver­schiedene Szenen automa­tisiert eine Aus­sage getrof­fen wer­den kon­nte, ob es sich dabei um Innen- oder Außen­szenen han­delt. Verbliebene Fehlde­tek­tio­nen wur­den unter Beach­tung ein­er max­i­mal 15 minüti­gen Nach­lese händisch entfernt.

Die Ergeb­nisse wur­den von Jun.-Prof. Dr. Marc Rit­ter vom 10.–12. Novem­ber 2014 auf dem TRECVID Work­shop an der Uni­ver­si­ty of Cen­tral Flori­da in Orlan­do, Flori­da, USA vorgestellt. Dabei kon­nten viele neue Erken­nt­nisse gewon­nen wer­den, welche die zukün­fti­gen Forschun­gen und Entwick­lun­gen im Pro­jekt local­izeIT maßge­blich bee­in­flussen werden.

Pub­lika­tion: Rit­ter, Marc ; Heinzig, Manuel ; Herms, Robert ; Kahl, Ste­fan ; Richter, Daniel ; Man­they, Robert & Eibl, Max­i­m­il­ian: Tech­nis­che Uni­ver­sität Chem­nitz at TRECVID Instance Search 2014. In: TRECVID Work­shop, 10.–12.11.2014, Orlan­do, Flori­da, USA, 8 S. [Link]

 
 
Projektgeber

Gef M BMBF

Gef M BMBF

LocalizeIt wird durch das Bundesministerium für Bildung und Forschung BMBF und die BMBF Innovationsinitiative Unternehmen Region von August 2014 bis Juli 2019 gefördert und durch den Projektträger PtJ betreut.

Projektnehmer

Logo TU trans cropp

Logo MI

Logo MC TRANS

localizeIT ist ein Projekt der
Stiftungsjuniorprofessur Media Computing und der Professur Medieninformatik der Technischen Universität Chemnitz

Forschungspartner

Intenta Logo

3D MicroMag Logo

IBS Logo

Kontakt

Dr. rer. nat. Danny Kowerko
Tech­ni­sche Uni­ver­si­tät Chem­nitz
Fakul­tät für Infor­ma­tik
Juniorpro­fes­sur Medi­a Computing
Straße der Natio­nen 62
09111 Chemnitz