2018-05-23 | Anmelden
 
 

TUCool — Optimierung von Klimaanlagen in Serverräumen

tucool

Schema zur erweit­erten Wis­sens­ba­sis von Hard- und Soft­ware der Kli­mat­e­ch­nik [aus: Vodel et al: Adap­tive Sen­sor Data Fusion for Effi­cient Cli­mate Con­trol Sys­tems, S.6]

Gemein­sam mit PD Dr.-Ing Matthias Vodel und Prof. Dr. Wol­fram Hardt, tech­nis­ch­er Leit­er des Uni­ver­sität­srechen­zen­trums (URZ) der TU Chem­nitz, entwick­elte Jun.-Prof. Dr. Marc Rit­ter, von der Junior­pro­fes­sur Media Com­put­ing, ein Konzept zur effizien­teren Küh­lung von Server­räu­men. Gemein­sam unter­sucht­en sie Tem­per­aturver­läufe und Abhängigkeit­en ver­schieden­er Tem­per­atur­zo­nen, wobei sie die bere­its ver­füg­bare Hard­ware, wie Tem­per­atursen­soren, in diesen Prozess ein­ban­den. Durch eine geschaf­fene gemein­same Wis­sens­ba­sis, die vorhan­dene Hard- und Soft­ware inte­gri­ert, sind keine zusät­zlichen Sen­soren oder Tech­niken erforder­lich. Erste Tests dieses Konzepts mit dem Namen “TU-Cool” zeigen bere­its einen hohen Grad der Opti­mierung sowie erhe­bliche Kosteneinsparun­gen durch den jew­eili­gen Kom­pro­miss zwis­chen Energiev­er­sorgung und Küh­lungska­paz­itäten. Die Ergeb­nisse der gemein­samen Arbeit präsen­tierte PD Dr.-Ing. habil. Matthias Vodel im Rah­men des “Uni­ver­sal Access” Work­shops auf der “17th Inter­na­tion­al Con­fer­ence on Human-Com­put­er Inter­ac­tion” (HCII).

Pub­lika­tion: Vodel, Matthias & Rit­ter, Marc. Adap­tive Sen­sor Data Fusion for Effi­cient Cli­mate Con­trol Sys­tems. In: Uni­ver­sal Access in Human-Com­put­er Inter­ac­tion. Access to Inter­ac­tion, Part II. Lec­ture Notes in Com­puter Sci­ence, Nr. 9176. Switzer­land : Springer Inter­na­tional Pub­lish­ing. HCI Inter­na­tional, Los Ange­les, CAUSA, 02.–07.08.2015, S.582–593. [Link]

 

Modellbasierte Tools zur Objekterkennung in Videomaterial

object
Videoan­no­ta­tions-Tool [aus: Rit­ter et.al. Rapid Mod­el-Dri­ven Anno­ta­tion and Eval­u­a­tion for Object Detec­tion in Videos]

Prof. Dr. Max­i­m­il­ian Eibl und Michael Storz von der Pro­fes­sur für Medi­en­in­for­matik entwick­el­ten gemein­sam mit Jun.-Prof. Dr. Marc Rit­ter und Manuel Heinzig von der Junior­pro­fes­sur Media Com­put­ing Tools zur Anno­ta­tion und Eval­u­a­tion zur Objek­terken­nung in Video­ma­te­r­i­al. Dafür erweit­erten sie einen mod­ell­basierten Ansatz zur Anno­ta­tion von Bild­ma­te­ri­alien auf Videos und testeten diesen im Ver­gle­ich mit anderen Tools, die derzeit auf im Forschungs­bere­ich existieren. Ergeb­nis dieser Forschung sind u.a. zwei Kom­po­nen­ten zur schnellen Videoan­no­ta­tion und Eval­u­a­tion. Die Videoan­no­ta­tion­skom­po­nente ermöglicht das Sprin­gen zu einzel­nen Frames während in ein­er Liste und in der zuge­höri­gen Time­line die annotierten Ele­mente angezeigt wer­den. Mit der Eval­u­a­tion­skom­po­nente kön­nen die erkan­nten Objek­te schließlich als falsch oder pos­i­tiv bew­ertet wer­den. Die Entwick­lung der bei­den Kom­po­nen­ten dient dem Team von Local­izeIt und der Junior­pro­fes­sur außer­dem als Vor­bere­itung auf die Teil­nahme am diesjähri­gen Track “Instance Search” inner­halb der vom amerikanis­chen Insti­tut for Stan­dards and Tech­nolo­gies jährlich ver­anstal­teten wis­senschaftlichen Eval­u­a­tion­skam­pagne TRECVid (Text Retrieval Eval­u­a­tion Cam­paign on Videos).

Die Ergeb­nisse der gemein­samen Forschungsar­beit wur­den im Rah­men des “Uni­ver­sal Access Work­shops” auf der “17th Inter­na­tion­al Con­fer­ence on Human-Com­put­er Inter­ac­tion” (HCII) in Los Ange­les, USA vor.

Pub­lika­tion: Rit­ter, Marc; Storz, Michael; Heinzig, Manuel & Eibl, Max­i­m­il­ian. Rapid Mod­el-Dri­ven Anno­ta­tion and Eval­u­a­tion for Object Detec­tion in Videos. In: Uni­ver­sal Access in Human-Com­put­er Inter­ac­tion. Access to Inter­ac­tion, Part I. Lec­ture Notes in Com­puter Sci­ence, Nr. 9175. Switzer­land: Springer Inter­na­tional Pub­lish­ing. HCIInter­na­tional, Los Ange­les, CAUSA, 02.–07.08.2015, S.464–474. [Link]

 

Entwicklung kognitiver Tools für intelligente CAD-Systeme

Die Nutzung pro­fes­sioneller CAD (com­put­er-aid­ed design) Soft­ware erfordert nicht nur fach­lich­es Know How, son­dern auch Übung im Umgang mit der Soft­ware. Prof. Dr. Dr. Gisela S. Bahr und Prof. Stephen L. Wood vom Depart­ment of Bio­med­ical Engi­neer­ing des Flori­da Insti­tute of Tech­nol­o­gy unter­sucht­en gemein­sam mit Jun.-Prof. Dr. Marc Rit­ter, Inhab­er der Junior­pro­fes­sur Media Com­put­ing der TU Chem­nitz, kog­ni­tive Tools, die CAD-Nutzer bei ihrer Arbeit unter­stützen sollen. Ziel ist es, uner­fahre­nen Nutzern Lösungsvorschläge anzu­bi­eten, mit denen sie ihr aktuelles Pro­jekt verbessern kön­nen. Als Grund­lage für diese Vorschläge dient eine Studie, in der erfahrene CAD-Nutzer beobachtet und deren Lösungsan­sätze für ver­schiedene Prob­lem­stel­lun­gen weit­er­ver­ar­beit­et wur­den. Beispiel­sweise wird Anfängern somit eine Möglichkeit an die Hand gegeben, Muster und Hin­weise ein­blenden zu lassen, um sich schneller mit dem Pro­gramm und dessen Möglichkeit­en ver­traut zu machen. Eine weit­ere Unter­stützungsmöglichkeit auf dem Weg zum intel­li­gen­ten CAD-Sys­tem bilden Wid­gets, die Auf­gaben automa­tisch ergänzen oder einem erfahre­nen Nutzer Kniffe zeigen, die ursprünglich von anderen erfahre­nen Inge­nieuren mit der­sel­ben oder ähn­lichen Prob­lem­stel­lung stam­men.

Pub­lika­tion: Bahr, Gisela Susanne; Wood, Stephen & Rit­ter, Marc. Cog­ni­tive Tools for Design Engi­neers: A Frame­work for the Devel­op­ment of Intel­li­gent CAD Sys­tems. In: i-com 14(2), S.138–146. [Link]

 

Akustische Präsenzermittelung von Walen in Unterwasseraufnahmen

whale detection

Spek­tro­gramm (li.) und Pseu­do Wign­er-Ville Dis­tri­b­u­tion (re.) [Ou et al. (2015), JASA in Klinck & Rit­ter, DCLDE Work­shop, Präsen­ta­tion, S.14]

Dr. Hol­ger Klinck vom Cor­nell Lab of Ornithol­o­gy der Cor­nell Uni­ver­si­ty in NY, USA und Jun.-Prof. Dr. Marc Rit­ter von der Junior­pro­fes­sur Media Com­put­ing der TU Chem­nitz entwick­el­ten eine automa­tisierte Meth­ode zur Detek­tion ver­schieden­er Walarten anhand von akustis­chen Unter­wasser­auf­nah­men, die mit Hil­fe von soge­nan­nten Hydropho­nen (Unter­wasser­mikro­fone) aufgenom­men wur­den. Der erste Schritt dieser Auswer­tung von Langzeit­dat­en ist die Berech­nung ein­er Fouri­er-Trans­for­ma­tion (FFT) der aufgeze­ich­neten Dat­en (200 Hz Abtas­trate). 5 Sekun­den Audio­dat­en wer­den so in ein Spek­tro­gramm mit der Auflö­sung 30 x 50 Pix­el umge­wan­delt. Nach dem Entrauschen des Spek­tro­gramms kön­nen die Graustufen schließlich als JPEG exportiert und als Train­ings- und Test­dat­en mit Hil­fe maschineller Komi­tee-basiert­er Lern­ver­fahren der Boost­ing-Klasse weit­er­ver­ar­beit­et wer­den. Die Ergeb­nisse der gemein­samen Forschungsar­beit stellte Dr. Hol­ger Klinck im Rah­men des 7. inter­na­tionalen Work­shops für Detec­tion, Clas­si­fi­ca­tion, Local­iza­tion, and Den­si­ty Esti­ma­tion (DCLDE) in San Diego, Kali­fornien, USA vor.

Mit ihrer Forschungsar­beit erziel­ten die bei­den Insti­tute im diesjähri­gen Work­shop die besten Resul­tate. Auf der Ver­ar­beitung dieser Massendat­en auf­bauend, soll zukün­ftig eben­falls die Präzi­sion im maschinellen Ler­nen noch weit­er erhöht wer­den.

Pub­lika­tion: Klinck, Hol­ger & Rit­ter, Marc. Auto­mated iden­ti­fi­ca­tion of blue and fin whale vocal­iza­tions using an ensem­ble-based clas­si­fi­ca­tion sys­tem. In: The 7th Inter­na­tional DCLDE [Detec­tion, Clas­si­fi­ca­tion, Local­iza­tion, and Den­sity Esti­ma­tion] Work­shop 13.–16.07.2015, La Jol­la, CAUSA, Präsen­ta­tion, 1. Platz bei der Detek­tion von Barten­walen im Nieder­fre­quenzbere­ich. [Link]

 

Explorative Studie zur Eliminierung von Gesichtern durch Vergessen

Methodik der Datenreduktion bestehend aus Schnittanalyse und Gesichtsdetektion. [aus: Ritter, Marc; Bahr, Gisela S., ICME Workshops, Präsentation, S.17]

Methodik der Datenre­duk­tion beste­hend aus Schnit­t­analyse und Gesichts­de­tek­tion. [aus: Rit­ter & Bahr, ICME Work­shops, Präsen­ta­tion, S.17]

Prof. Dr. Dr. Gisela Susanne Bahr vom Depart­ment of Bio­med­ical Engi­neer­ing des Flori­da Insti­tute of Tech­nol­o­gy und Jun.-Prof. Dr. Marc Rit­ter von der Junior­pro­fes­sur Media Com­put­ing der TU Chem­nitz präsen­tierten im Rah­men des Human Mem­o­ry-Inspired Mul­ti­me­dia Orga­ni­za­tion and Preser­va­tion (HMMP) Work­shops auf der renom­mierten Kon­ferenz IEEE Inter­na­tion­al Con­fer­ence on Mul­ti­me­dia and Expo (ICME) 2015 in Tori­no, Ital­ien die Ergeb­nisse ihrer gemein­schaftlichen Studie. Inspiri­ert von Aspek­ten des men­schlichen Vergessens, wur­den Kri­te­rien unter­sucht, mit deren Hil­fe Gesichter in großen Datenbestän­den in Erin­nerung behal­ten oder gelöscht wer­den kön­nen. Als Daten­ma­te­r­i­al diente die Analyse von 122 Episo­den zusam­menge­fasster 100 sekündi­ger Web­casts der deutschen Tagess­chau vom April und Mai 2011. Dabei wur­den rel­e­vante Merk­male iden­ti­fiziert und mit maschinell erlern­ten Merk­malen ver­glichen, wobei vor allem die Qual­ität von Gesichtern in unter­schiedlichen Größen und Schär­fee­in­stel­lun­gen eine wichtige Rolle spie­len. Durch gezielte Eli­m­inierung von ähn­lichen oder nicht-adäquat­en Bil­dauf­nah­men ergibt sich ein Poten­tial zur Reduk­tion der spe­icherbaren Gesichts­daten­menge von bis zu 75%.

Pub­lika­tion: Rit­ter, Marc & Bahr, Gisela Susanne. An explorato­ry study to iden­tify rel­e­vant cues for the dele­tion of faces for mul­ti­me­dia retrieval. In: IEEE Inter­na­tional Con­fer­ence on Mul­ti­me­dia & Expo Work­shops on Human Mem­o­ry-Inspired Mul­ti­me­dia Orga­ni­za­tion and Preser­va­tion, Turin, Italy, 29.06.–03.07.2015, S.1–6. [Link]

 

Verbesserung von Farbkalibrierverfahren für Projektoren

Measured color gamut of the Sanyo PDG-DWL 2500 projector with 64³ samples in the camera’s native color space [Quelle: Marcel Heinz; Guido Brunnett: Dense Sampling of 3D Color Transfer Functions Using HDR Photography]

Gemessene Farb­skala des Sanyo PDG-DWL 2500 Pro­jek­tors mit 64³ Sam­ples im nativ­en Far­braum der Kam­era [Quelle: Mar­cel Heinz; Gui­do Brun­nett: Dense Sam­pling of 3D Col­or Trans­fer Func­tions Using HDR Pho­tog­ra­phy]

Local­izeIT Mitar­beit­er Dr. Mar­cel Heinz entwick­elte in Zusam­me­nar­beit mit Prof. Dr. Gui­do Brun­nett von der Pro­fes­sur für Graphis­che Daten­ver­ar­beitung und Visu­al­isierung der Fakultät für Infor­matik an der Tech­nis­chen Uni­ver­sität Chem­nitz eine verbesserte Meth­ode zur Mes­sung von 3D-Farb­trans­fer­funk­tio­nen (engl. Col­or Trans­fer Func­tions — CTF) und präsen­tierten diese gemein­sam im Rah­men des IEEE CCD/PROCAMS 2015 Work­shops auf der CVPR 2015 in Boston — der inter­na­tion­al hochrangig­sten und größten Kon­ferenz auf dem Gebi­et der Muster- und Bilderkennung/Computer Vision.

Die entwick­elte Meth­ode beschle­u­nigt die Bes­tim­mung der CTFs, welche für die Kalib­rierung von Mehrseg­ment-Pro­jek­tion­san­la­gen hin­sichtlich Farb- und Hel­ligkeitswieder­gabe unverzicht­bar sind. Bish­erige Meth­o­d­en zur Mes­sung von Pro­jek­toraus­gaben benöti­gen pro Mes­sung mehrere Sekun­den und weichen meist stark von einem ide­alen RGB-Mod­ell ab. Dadurch sind diese Meth­o­d­en in prax­is­rel­e­van­ten Zeiträu­men wed­er ver­hält­nis­mäßig noch qual­i­ta­tiv zufrieden­stel­lend. Mar­cel Heinz und Gui­do Brun­nett entwick­el­ten unter Benutzung ein­er dig­i­tal­en Spiegel­re­flexkam­era eine Mess­meth­ode mit ein­er wesentlich höheren Sam­pledichte (64x64x64), die die Fehlerquote um ca. 30% reduziert. Dies ist eine wichtige Grund­lage für die zu entwick­el­nden Kalib­ri­erver­fahren im Arbeits­bere­ich “Device­less 3D-Steuerung”.

Pub­lika­tion: Heinz, Mar­cel & Brun­nett, Gui­do. Dense Sam­pling of 3D Col­or Trans­fer Func­tions using HDR pho­tog­ra­phy. In: The IEEE Con­fer­ence on Com­puter Vision and Pat­tern Recog­ni­tion (CVPR) Work­shops, S.25–32. [Link]

 

Pressespiegel Q1/2015

Aus der Vernetzung Synergien schöpfen

Rek­torat der TU Chem­nitz ste­ht im engen Dia­log mit den Junior­pro­fes­soren der Uni­ver­sität

erschienen in Tech­nis­che Uni­ver­sität Chem­nitz, Uni aktuell, Online-Newslet­ter, 03.02.2015
[Link]

Von der Fotoanalyse zum videobasierten Monitoring

Die Inno­Pro­file-Trans­fer-Ini­tia­tive local­izeIT erforscht an der Stiftungsju­nior­pro­fes­sur Media Com­put­ing Lokalisierungs­fra­gen in audio­vi­suellen Medi­en – Auf­tak­t­work­shop am 22. Jan­u­ar 2015

erschienen in Tech­nis­che Uni­ver­sität Chem­nitz, Uni aktuell, Online-Newslet­ter, 20.01.2015
[Link]

 

Neujahrsgrüße 2015

Die Inno­Pro­file-Trans­fer-Ini­tia­tive local­izeIT meldet sich frisch und ver­stärkt aus dem Jahreswech­selurlaub zurück: Wir begrüßen Nor­bert Englisch in unserem Team, welch­er seit heute als Wis­senschaftlich­er Mitar­beit­er mit in der Ini­tia­tive arbeit­et.

Wir wün­schen den inter­essierten Lesern und Part­nern der Ini­tia­tive ein gesun­des und erfol­gre­ich­es Jahr 2015!

 

Diagnose von Augenkrankheiten mittels Bilderkennung

Ste­fan Kahl von der Pro­fes­sur Medi­en­in­for­matik und Jun.-Prof. Dr. Paul Rosen­thal von der Junior­pro­fes­sur Visu­al Com­put­ing entwick­el­ten gemein­sam mit Jun.-Prof. Dr. Marc Rit­ter von der Junior­pro­fes­sur Media Com­put­ing eine Möglichkeit zur automa­tis­chen Beurteilung der Schädi­gungssi­t­u­a­tion von AMD-Patien­ten (alters­be­d­ingte Maku­lade­gen­er­a­tion). Dabei han­delt es sich um die Schädi­gung der Net­zhaut in der Maku­la, also dem Bere­ich des schärf­sten Sehens. Das Forschung­steam ent­warf in sein­er Arbeit einen zwei­di­men­sion­alen Bild­ver­ar­beitungsal­go­tith­mus, um den Ver­lauf des reti­nalen Pig­mentepi­tels (kurz RPE) zu detek­tieren. Weit­er­hin entwick­el­ten sie ein Tool zur Anno­ta­tion von RPE-Ver­läufen, wobei einzelne Stell­größen des kreierten Algo­rith­mus’ automa­tisch an einen vorhan­de­nen Daten­satz angepasst und daraus eine visuelle Darstel­lung der Schädi­gungssi­t­u­a­tion ableit­bar ist.

Ste­fan Kahl präsen­tierte die Ergeb­nisse dieser Arbeit auf dem “Forum Bild­ver­ar­beitung 2014”, ein­er inter­na­tionalen Kon­ferenz des Fraun­hofer Insti­tuts, das sich den Trends in der Bild­ver­ar­beitung im indus­trien­ahen Bere­ich wid­met.

Pub­lika­tion: Kahl, Ste­fan; Rit­ter, Marc & Eibl, Max­i­m­il­ian. Automa­tisierte Beurteilung der Schädi­gungssi­t­u­a­tion bei Patien­ten mit alters­be­d­ingter Maku­lade­gen­er­a­tion (AMD). In: Forum Bild­ver­ar­beitung, 27.11. — 28.11.2014, Regens­burg, S. 179 — 190. — Karl­sruhe : KIT Sci­en­tif­ic Pub­lish­ing, 2014 [Link]

 

Nachhaltige Softwareentwicklung für Intelligente Videoanalyse

Vortrag_Nov2014_1

Jun.-Prof. Dr. Marc Rit­ter referiert über die Nach­haltigkeit des für Lehre und Forschung konzip­ierten Frame­works zur audio­vi­suellen Analyse von großen Datenbestän­den.

Auf dem diesjähri­gen Sym­po­sium on Com­pu­ta­tion­al Sus­tain­abil­i­ty (SoCS 2014) hielt Jun.-Prof. Dr. Marc Rit­ter vom 26.–28. Novem­ber 2014 im säch­sis­chen Gör­litz einen Vor­trag zum The­ma Sus­tain­able Analy­sis of Large Audio­vi­su­al Data Col­lec­tions.

Zum Inhalt gehörte unter anderem die Vorstel­lung des für Forschungs- und Lehrzwecke entwick­el­ten Soft­ware­frame­works AMOPA (Auto­mat­ed MOv­ing Pic­ture Anno­ta­tor). Dieses wurde von 2007 bis 2014 an der Pro­fes­sur Medi­en­in­for­matik der TU Chem­nitz in der vor­ange­gan­genen Inno­Pro­file-Ini­tia­tive sachs­Me­dia entwick­elt und seine Funk­tions­fähigkeit im Pro­jekt Val­i­dAX auf großen Daten­men­gen lokaler Fernsehsender vali­diert.

Mehr als 30 betreute stu­den­tis­che Abschlus­sar­beit­en und die Dis­ser­ta­tion von Marc Rit­ter bele­gen die Nach­haltigkeit der Entwick­lung dieses Frame­works und dessen Ein­set­zbarkeit und Adap­tions­fähigkeit für ver­schieden­ste Anwen­dungs­fälle. Zudem wird es aktuell in Lehrver­anstal­tun­gen erprobt. Diese Erfahrun­gen sollen helfen, die Weit­er­en­twick­lung des Frame­works inner­halb der Inno­Pro­file-Trans­fer-Ini­ta­tive local­izeIT voranzutreiben und auf die Pro­jek­t­in­halte auszuricht­en, die mit den Anwen­dungs­fällen und Vor­lauf­forschungs­be­dar­fen der regionaler Stifter und Forschungspart­ner kor­re­lieren.

Das Sym­po­sium wurde von der Fach­gruppe für Enter­prise Appli­ca­tion Devel­op­ment um Prof. Dr. Jörg Läs­sig von der Hochschule Zittau/Görlitz aus­gerichtet. Weit­ere Infor­ma­tio­nen zum The­ma Nach­haltigkeit von Tech­nolo­gien und Anwen­dung find­en sich auch unter SITA Research.

Pub­lika­tion: Rit­ter, Marc. Towards a Sus­tain­able Frame­work for the Analy­sis of Large Audio­vi­sual Data Col­lec­tions. In: Pro­ceed­ings of Sym­po­sium on Com­pu­ta­tional Sus­tain­abil­lity 2014, 27.–29.11.2014, Gör­litz, Sach­sen. LNCS, Springer, 10 S., In press.

 
 
Projektgeber

Gef M BMBF

Gef M BMBF

LocalizeIt wird durch das Bundesministerium für Bildung und Forschung BMBF und die BMBF Innovationsinitiative Unternehmen Region von August 2014 bis Juli 2019 gefördert und durch den Projektträger PtJ betreut.

Projektnehmer

Logo TU trans cropp

Logo MI

Logo MC TRANS

localizeIT ist ein Projekt der
Stiftungsjuniorprofessur Media Computing und der Professur Medieninformatik der Technischen Universität Chemnitz

Forschungspartner

Intenta Logo

3D MicroMag Logo

IBS Logo

Kontakt

Dr. rer. nat. Danny Kowerko
Tech­ni­sche Uni­ver­si­tät Chem­nitz
Fakul­tät für Infor­ma­tik
Juniorpro­fes­sur Medi­a Computing
Straße der Natio­nen 62
09111 Chemnitz