2018-07-22 | Anmelden
 
 

Autoren-Archiv

Artikel von Evelyn Lorenz

Fertigstellung des audiovisuellen Media Computing Labors

Anfang des Jahres erhielt das audio­vi­suelle Labor der Junior­pro­fes­sur Media Com­put­ing seinen let­zten Schliff. Der Büh­nenkä­fig ist aus­ges­tat­tet mit 16 Laut­sprech­ern, 64 Mikro­fo­nen und 10 Stereokam­eras (Smart Sen­sors), die eine Vielzahl an Objek­ten und Geräuschen aufze­ich­nen und lokalisieren kön­nen. Die ermit­tel­ten Dat­en wer­den von einem “Stor­age Sys­tem” mit 64 Ter­abyte Spe­icherka­paz­ität gesichert und ver­ar­beit­et. Zwei (MIDI-) Key­boards sor­gen für die Gener­ierung von Ton­se­quen­zen für unter­schiedliche Instru­mente, welche in der Erforschung der akustis­chen Lokalisierung ihren Ein­satz find­en sollen.

Am 01.02.2017 wurde das Labor in Betrieb genom­men und für Forschun­gen zur Objekt- und akustis­chen Lokalisierung genutzt. Weit­er Infor­ma­tio­nen find­en sich unter tech­nis­che Ausstat­tung des MC-Labors und wer­den auf der Inter­na­tion­al Sum­mer School on Com­put­er sci­ence, Com­put­er Engi­neer­ing and Edu­ca­tion Tech­nol­o­gy in Laubusch vom 03.–07.07.2017 vorgestellt.

 

TrecVid Instance Search 2016

Webin­ter­face für Anno­ta­tion [Quelle: S. Kahl: Präsen­ta­tion TUC at TrecVid 2016

Auch in diesem Jahr beteiligte sich die Junior­pro­fes­sur Media Com­put­ing am alljährlichen TrecVid Instance Search Wet­tbe­werb. Die inter­na­tionale wis­senschaftliche Eval­u­a­tion­skam­pagne TRECVID ist eine etabilierte Serie von Work­shops, die sich auf die inhalts­basierte Infor­ma­tion­s­gewin­nung und Auswer­tung dig­i­taler Videos konzen­tri­ert. Jedes Jahr stellen sich Teil­nehmer ein­er neuen real­ität­sna­hen Auf­gabe, die Forsch­er divers­er inter­na­tionaler Insti­tute in einem Wet­tbe­werb ver­suchen best­möglich zu lösen. Die TRECVID-erfahre­nen Forsch­er der Junior­pro­fes­sur Media Com­put­ing und der Pro­fes­sur Medi­en­in­for­matik der Tech­nis­chen Uni­ver­sität Chem­nitz nah­men nun­mehr zum drit­ten Mal teil, dieses Jahr in den Kat­e­gorien “Instance Search Auto­mat­ic Run” (AR) und “Instance Search Inter­ac­tive Run” (IR).

Ziel war die Verbesserung der Vor­jahres-Ergeb­nisse unter Nutzung von Open Source Tools auf Con­sumer Hard­ware. Dabei soll­ten vor allem speziell entwick­elte Anno­ta­tion­swerkzeuge zur kol­lab­o­ra­tiv­en Nutzung über ein Webin­ter­face zum Ein­satz kom­men mit denen mehr Ground-Truth Dat­en pro Zeit­ein­heit erzeugt wer­den kön­nen. Außer­dem wur­den Zeit­en erfasst um u.a. die effizien­testen Nutzer für den inter­ak­tiv­en Run zu bes­tim­men. Dat­en-Grund­lage des Wet­tbe­werbs war auch dieses Mal wieder die britis­che TV-Serie “Eas­t­en­ders”. Im Wet­tbe­werb galt es bes­timmte Rollen der Serie an einem definierten Ort automa­tisiert zu ermit­teln.  Dazu erfol­gte im ersten Schritt nach der Extrak­tion der sog. Keyframes deren Anno­ta­tion durch Markieren von Per­so­n­en mit Bound­ing Box­en (mit­tels Rechteck­en, siehe Abbil­dung) und Meta­da­te­nan­re­icherung mit Ortsin­for­ma­tio­nen. Zur Per­so­n­en- und Ort­sklas­si­fika­tion wur­den dann im zweit­en Schritt neu­ronale Net­ze (CNNs — Con­vo­lu­tion­al Neur­al Net­works) trainiert. Da aufeinan­der­fol­gende Bilder am sel­ben Ort mit großer Wahrschein­lichkeit zu ein­er Szene (Shot) gehören, wur­den Ähn­lichkeitsmetriken angwandt, um Bilder einem Shot und damit ein­er Grup­pen­num­mer zuzuord­nen. Schritt drei bein­hal­tete ein Re-Rank­ing der Ergeb­nisse der CNNs durch Mit­telung der CNN-Kon­fi­den­zw­erte aller Bilder ein­er Gruppe. Schließlich fol­gte im inter­ak­tiv­en Run die manuelle Eval­u­a­tion der Ergeb­nisse mit Hil­fe des Webin­ter­faces durch den zeit­ef­fizien­testen Anno­ta­tor.

Die Forsch­er erziel­ten mit ihrer Meth­ode eine durch­schnit­tliche Tre­f­fer­quote von 31,8% im Inter­ac­tive Run und 14,4% im Auto­mat­ic Run, wobei die Top 10 Präzi­sion 90,5% (IR) und 49,7% (AR) betrug. Damit erre­ichte die TU Chem­nitz den 2. Platz im Inter­ac­tive Run und den 5. Platz im Auto­mat­ic Run.

 

 

Kontexterkennung auf mobilen Endgeräten mittels Sensorfusion

Im Rah­men sein­er Pro­mo­tion betreibt Maik Ben­ndorf, von der Hochschule Mit­twei­da, weit­er­führende Forschung im Bere­ich der Kon­tex­terken­nung auf Smart­phones. Ein mod­ernes Smart­phone hat heute bis zu 40 einge­baute Sen­soren. In sein­er Arbeit möchte Maik Ben­ndorf aus den Dat­en dieser Sen­soren Rückschlüsse auf die Sit­u­a­tion des Nutzers ziehen. Anwen­dung find­et die Kon­tex­terken­nung in soge­nan­nten kon­textsen­si­tiv­en Anwen­dun­gen. Eine solche Anwen­dung kann das Smart­phone während eines Meet­ings z. B. in ein laut­los­es Pro­fil stellen.

Eben­falls auf Sen­sor­dat­en beruht ein Ver­fahren zur Posi­tions­bes­tim­mung, das „Dead Reck­on­ing“ (dt. Kop­pel­nav­i­ga­tion) genan­nt wird. Dieses Ver­fahren ist bere­its seit der frühen Seefahrt bekan­nt und wird genutzt, um von einem bekan­nten Punkt aus­ge­hend die aktuelle Posi­tion zu bes­tim­men. Während dazu früher Kom­pass und Fahrten­mess­er zum Ein­satz kamen, wer­den heute Bewe­gungssen­soren wie z.B. der Beschle­u­ni­gungssen­sor oder das Gyroskop einge­set­zt. Während seines Forschungsaufen­thalts am Cor­nell Lab of Ornithol­o­gy (USA) beschäftigte sich Maik Ben­ndorf mit dieser Art der Posi­tions­bes­tim­mung. Dabei soll das Ergeb­nis sein­er Arbeit einge­set­zt wer­den, um die Bewe­gun­gen von Tieren in freier Wild­bahn zu überwachen. Hierzu wird das Tier mit einem Hals­band verse­hen, welch­es die Sen­soren bein­hal­tet und fortwährend Dat­en aufze­ich­net. Anhand dieser Dat­en lässt sich so die zurück­gelegte Strecke des überwacht­en Tieres nachvol­lziehen. Bleibt die Frage, warum dazu kein GPS Sys­tem einge­set­zt wird? Ein großer Nachteil dieses Sys­tems ist der Energie­ver­brauch, wodurch es für solche Langzeit­stu­di­en recht ungeeignet ist.

Daneben kann Dead Reck­on­ing auch zur Nav­i­ga­tion in Gebäu­den einge­set­zt wer­den, da die GPS-Sig­nale hier in der Regel nicht bzw. nur eingeschränkt nutzbar sind. Smart­phones ver­fü­gen stan­dard­mäßig über alle dafür notwendi­gen Sen­soren. Maik Ben­ndorfs Pro­mo­tions mit dem Titel „Unter­suchung und Opti­mierung der Kon­tex­terken­nung auf mobilen Endgeräten mit­tels Sen­sor­fu­sion“ wird vom ehe­ma­li­gen local­izeIT Pro­jek­tleit­er Prof. Dr. Marc Rit­ter und Prof. Thomas Haensel­mann von der Hochschule Mit­twei­da betreut.

 

Optimierte Analyse von Laserschweißprozessen durch modellbasierte Bildverarbeitung

Standbild des Laserschweißprozesses mit modellierter Ellipse [aus: Kowerko, Danny; Ritter, Marc; Manthey, Robert; John, Björn & Grimm, Michael: Quanti?zierung der geometrischen Eigenschaften von Schmelzzonen bei Laserschweißprozessen]

Stand­bild des Laser­schweißprozess­es mit mod­el­liert­er Ellipse [aus: Kow­erko, Dan­ny; Rit­ter, Marc; Man­they, Robert; John, Björn & Grimm, Michael: Quanti?zierung der geometrischen Eigen­schaften von Schmelz­zo­nen bei Laser­schweißprozessen]

In Zusam­me­nar­beit mit der 3D Micro­mac AG fan­den Mitar­beit­er der Junior­pro­fes­sur Media Com­put­ing eine Möglichkeit die qual­i­ta­tive Analyse von Laser­schweißprozessen zu opti­mieren. Dies gelang durch die Kom­bi­na­tion von mod­ell­basiert­er Bild­ver­ar­beitung mit neuer Kam­er­at­e­ch­nolo­gie, die Auf­nah­men mit 2.000 Bildern pro Sekunde bei ein­er Auflö­sung von 1024 ×768 Pix­eln erlaubt. Die Ergeb­nisse dieser Arbeit stellen die Forsch­er vom 1.- 2. Dezem­ber 2016 auf dem Forum Bild­ver­ar­beitung in Karl­sruhe vor.

Die 3D Micro­mac AG ist ein Spezial­ist auf dem Gebi­et der Laser­mikrobear­beitung und somit abhängig von präzisen Analy­sen ihrer Prozesse. Im Mikrom­e­ter­bere­ich sind Hochgeschwindigkeit­sauf­nah­men der Schmelz­zone meist die einzige Möglichkeit für die Qual­ität­sein­schätzung. Ein mehrstu­figes OpenCV-basiertes Bild­ver­ar­beitungsver­fahren mod­el­lierte dabei mit Hil­fe ein­er Ellipse die Schmelz­zone während des Laser­schweißprozess­es. Die Para­me­ter dieser Ellipse wur­den dann als Funk­tion der Zeit durch lin­eare Regres­sion approx­imiert, was Rückschlüsse auf die Auswirkun­gen ver­schieden­er Fak­toren, wie z.B. Laser-, Werk­stoff- und Werkzeug­pa­ra­me­ter auf das Fügeergeb­nis ermöglicht. Die Arbeit zeigte beispiel­sweise einen lin­earen Zusam­men­hang zwis­chen der Schmelz­zo­nen­fläche und der Laser­leis­tung. Der­ar­tige Ableitun­gen von Geset­zmäßigkeit­en sind erweit­er­bar auf andere Gerätepa­ra­me­ter und erlauben kün­ftig eine com­put­ergestützte Opti­mierung dieser Para­me­ter in Bezug auf die gewün­schte Schmelz­zo­nen­ge­ome­trie. Weit­er­hin soll es möglich sein neue tech­nis­che Ver­fahren wie das Pulsen des Inert­gasstromes durch Charak­ter­isierung der Schmelz­zo­nen­dy­namik und Lokalisierung unge­woll­ter Arte­fak­te (z.B. Spritzer) zu evaluieren.

Pub­lika­tion: Kow­erko, Dan­ny; Rit­ter, Marc; Man­they, Robert; John, Björn & Grimm, Michael: Quan­tifizierung der geometrischen Eigen­schaften von Schmelz­zo­nen bei Laser­schweißprozessen

 

Stiftungs-Juniorprofessur unter neuer Leitung

Dr. Danny Kowerko

Dr. Dan­ny Kow­erko

Zum 01.09.2016 ver­lässt Prof. Dr. Marc Rit­ter die Stiftungs-Junior­pro­fes­sur Media Com­put­ing und nimmt die Pro­fes­sur für Medi­en­in­for­matik an der Hochschule Mit­twei­da an. Die Pro­jek­te der Stiftungsju­nior­pro­fes­sur begleit­et er zukün­ftig als wis­senschaftlich­er Berater. Bis zur offiziellen Neube­set­zung übern­immt Dr. Dan­ny Kow­erko als Inter­ims-Pro­jek­tleit­er die Führung der Junior­pro­fes­sur.

Wir wün­schen Prof. Dr. Marc Rit­ter viel Erfolg und alles Gute für seine beru­fliche Zukun­ft!

 

Datenreduktion mit geringem Datenverlust in der Videobilderkennung

Überblick von Ähnlichkeitsmaßen bewertet von Mensch und Maschine [aus: Ritter et al: Simplifying Accessibility Without Data Loss: An Exploratory Study on Object Preserving Keyframe Culling, S.9]

Überblick von Ähn­lichkeits­maßen bew­ertet von Men­sch und Mas­chine [aus: Rit­ter et al: Sim­pli­fy­ing Acces­si­bil­i­ty With­out Data Loss: An Explorato­ry Study on Object Pre­serv­ing Keyframe Culling, S.9]

In Zusam­me­nar­beit mit Prof. Dr. Dr. Gisela Susanne Bahr vom Flori­da Insti­tute of Tech­nol­o­gy führte die Stiftung­spro­fes­sur Media Com­put­ing unter der Leitung von Jun.-Prof. Dr. Marc Rit­ter eine explo­rative Studie im Bere­ich der Bilderken­nung in Video­ma­te­r­i­al durch. Ins­beson­dere geht es um die Reduzierung von Video-Keyframes unter Erhal­tung aller rel­e­van­ten Objek­tin­stanzen, welche im Rah­men des TrecVid Instance Search Wet­tbe­werbs 2015 [Link] aus­gewählt wur­den und in vier Stun­den Video­ma­te­r­i­al der BBC Serie “East Enders” erkan­nt wer­den soll­ten.

Bei der Analyse von Video­ma­te­r­i­al erfol­gt zunächst eine Auswahl von einzel­nen Keyframes, die repräsen­ta­tiv für die jew­eilige Szene ste­hen. Um redun­dante Bilder­in­halte zu ver­mei­den ist die Anzahl der aus­gewählten Keyframes pro Szene so ger­ing wie möglich zu hal­ten, was durch eine fehlende Trainigsmöglichkeit des Algo­rith­mus’ erschw­ert wird. Im Gegen­satz zu anderen Forsch­ern, die eine starre Anzahl von Keyframes auswählen (z.B. ein Keyframe pro Sekunde), entsch­ieden sich die Forsch­er für eine Auswahl­meth­ode, die sich an der Länge der Szene ori­en­tiert, da sich Objek­t­po­si­tio­nen inner­halb län­ger­er Szenen verän­dern kön­nen. In ihrer Studie sortierten die Forsch­er dann manuell die übri­gen Dup­likate aus und ver­sucht­en die ange­wandten Auswahlkri­te­rien objek­tiv zu evaluieren und mit com­put­ergestützten Maßen maschinell nachzustellen. Dabei erre­icht­en sie eine Reduzierung der repräsen­ta­tiv­en Keyframes um 84% bei Erhalt von 82% aller Instanzen der auftre­tenden Objek­tk­lassen.

Die Vorstel­lung der Ergeb­nisse der Studie erfol­gt im Juli diesen Jahres auf der Con­fer­ence on Human-Com­put­er Inter­ac­tion Inter­na­tion­al (HCII) in Toron­to, Kana­da.

Pub­lika­tion: Rit­ter, Marc; Kow­erko, Dan­ny; Hus­sein, Hus­sein; Heinzig, Manuel; Schloss­er, Tobias; Man­they, Robert & Bahr, Gisela Susanne: Sim­pli­fy­ing Acces­si­bil­i­ty With­out Dat­aloss: An Explorato­ry Study on Object Pre­serv­ing Keyframe Cul­li­ung. In: Uni­ver­sal Access in Human-Com­put­er Inter­ac­tion. Part of Human Com­put­er Inter­ac­tion Inter­na­tion­al (HCII) 2016, At Toron­to, Cana­da, Vol­ume: LNCS, 12 S. [Link]

 

Framework für die Generierung von Multimedia-Testsets

Original Einzelbild und fehlerhafte Strukturen nach der Verarbeitung (aus: Manthey et al: A Framework For Generation Of Testsets For Recent Multimedia Work ows, S. 7]

Orig­i­nal Einzel­bild und fehler­hafte Struk­turen nach der Ver­ar­beitung (aus: Man­they et al: A Frame­work For Gen­er­a­tion Of Test­sets
For Recent Mul­ti­me­dia Work
ows, S. 7]

Robert Man­they, Steve Con­rad und Jun.-Prof. Dr. Marc Rit­ter von der Stiftung­spro­fes­sur Media Com­put­ing der Tech­nis­chen Uni­ver­sität Chem­nitz entwickl­ten ein Frame­work für die Gener­ierung von Test­sets in mul­ti­me­di­alen Work­flows, das sie im Juli diesen Jahres auf der Con­fer­ence on Human-Com­put­er Inter­ac­tion Inter­na­tion­al (HCII) in Toron­to, Kana­da, präsen­tieren.

Das Frame­work bietet Möglichkeit­en für die Anwen­dung ver­schieden­er Funk­tio­nen, um Test­se­quen­zen zu gener­ieren, deren Einzel­bilder spezielle Muster bein­hal­ten. Diese Muster dienen dazu, nur schw­er erkennbare oder nur sel­ten auftre­tende Fehler im Video­ma­te­r­i­al zu provozieren und die erzeugten Sequen­zen mit dem Aus­gangs­ma­te­r­i­al zu ver­gle­ichen. Auf diese Weise kann fest­gestellt wer­den, ob sich der jew­eilige Fehler im Video­ma­te­r­i­al befind­et ohne eine kom­plette Sich­tung des Orig­i­nals vornehmen zu müssen. Bish­er wur­den meist fer­tige Videoauf­nah­men oder Bilder ver­wen­det, die jedoch nicht in ihrer Auflö­sung etc. an neue Anforderun­gen angepasst wer­den kon­nten ohne dabei Arte­fak­te zu erzeu­gen und somit Fehler bere­its im Tes­taus­gangs­ma­te­r­i­al zu gener­ieren. Mit dem Frame­work ist es nun möglich, die Test­sets beliebig zu gener­ieren und für die gegebe­nen Anforderun­gen zu opti­mieren.

Pub­lika­tion: Man­they, Robert; Con­rad, Steve & Rit­ter, Marc: A Frame­work For Gen­er­a­tion of Test­sets for Recent Mul­ti­me­dia Work­flows. In: Uni­ver­sal Access in Human-Com­put­er Inter­ac­tion. Part of Human Com­put­er Inter­ac­tion Inter­na­tion­al (HCII) 2016, Toron­to, Cana­da, Vol­ume: LNCS, 9 S. [Link]

 

Die IPT-Initiative lädt zum 2. Workshop ein

Am 24. Mai 2016 find­et von 13 — 17 Uhr das 2. öffentliche Sta­tus­meet­ing der Inno­Pro­file-Trans­fer-Ini­tia­tive local­izeIT mit seinen Stiftern und dem Pro­jek­t­träger im ehrwürdi­gen „Alten Heizhaus“ im Uni­ver­sität­steil in der Straße der Natio­nen statt. Im Fokus der Ver­anstal­tung ste­hen der Rück­blick auf die bish­eri­gen Fortschritte und Errun­gen­schaften im Pro­jekt sowie der Aus­blick auf das weit­ere Vorge­hen.

Bei Inter­esse an der Teil­nahme am Work­shop bit­ten wir bis zum 20.5.2016 um eine elek­tro­n­is­che Anmel­dung unter: mc-anmeldung@tu-chemnitz.de.

 

Deutscher Rechenzentrumspreis 2016

digitalfingerprint

Spez­iz­fis­che Ther­mal­muster (Quelle: Blog URZ TU Chem­nitz)

Zum zweit­en Mal in Folge gewann das Uni­ver­sität­srechen­zen­trum der TU Chem­nitz gemein­sam mit der Junior­pro­fes­sur “Media Com­put­ing” den begehrten Deutschen Rechen­zen­trum­spreis. In der Kat­e­gorie “Energieef­fizien­zsteigerun­gen durch Umbau in einem Bestand­srechen­zen­trum” fes­tigte das Uni­ver­sität­srechen­zen­r­tum seine Pos­tion inner­halb der inge­samt 58 deutsch­landweit ein­gere­icht­en Pro­jek­te aus Indus­trie und Forschung und erre­ichte damit einen Spitzen­platz.

Gemein­sam mit Jun.-Prof. Dr. Marc Rit­ter, von der Junior­pro­fes­sur “Media Com­put­ing”, entwick­elte PD Dr. Matthias Vodel, vom Uni­ver­sität­srechen­zen­trum, das Forschung­spro­jekt “Ther­mal-Fin­ger­prints: Mul­ti­di­men­sion­ale Echtzei­t­analyse im Rechen­zen­trum”. Ziel des Pro­jek­tes ist es, alle Soft­ware-Prozesse im Rechen­zen­trum präzise zu erken­nen und zu klas­si­fizieren. So kann die Kli­ma­tisierung der Server­räume energieef­fizient den momen­ta­nen Anforderun­gen angepasst wer­den. Unter­schiedliche Prozess­in­for­ma­tio­nen wer­den dabei zu einem dig­i­tal­en, ther­mis­chen Fin­ger­ab­druck verknüpft, der ein­deutig und wieder­erkennbar ist. Die Kli­ma­tisierungssys­teme kön­nen somit im Ide­al­fall Tem­per­atur­spitzen frühzeit­ig und ressourcenscho­nend ver­mei­den. Dadurch wird die Lebens­dauer von Rechen- und Spe­ich­er­sys­te­men gravierend ver­längert. Die Wis­senschaftler der Junior­pro­fes­sur “Media Com­put­ing” mod­i­fizieren hier­für ein Soft­ware-Frame­work zur Audio- und Video-Analyse für die Anwen­dung auf mul­ti­di­men­sion­ale Daten­quellen im Rechen­zen­trum. “Die Gener­ierung und Nutzung ther­mis­ch­er Fin­ger­prints zur Opti­mierung von Kli­ma­tisierungslö­sun­gen im Rechen­zen­trum stellt eine rich­tungsweisende Inno­va­tion dar”, fügt Rit­ter hinzu.

 

Klassifizierung akustischer Ereignisse zur Unterstützung im Pflegebereich

Mitar­beit­er der Junior­pro­fes­sur Media Com­put­ing und der Inten­ta GmbH reicht­en eine Forschungsar­beit zum The­ma der Klas­si­fizierung von Audio­ereignis­sen, wie Sprache und für den Pflege­bere­ich typ­is­che Geräusche, auf der Kon­ferenz für Elek­tro­n­is­che Sprachsig­nalver­ar­beitung (ESSV) in Leipzig von 2. bis 4. März 2016 ein.

Frequenzspektren von Sprach- sowie nicht-Sprachereignissen [aus: Hussein et al: Acoustic Event Classification for Ambient Assisted Living and Health Environments]

Fre­quen­zspek­tren von Sprach- sowie nicht-Sprachereignis­sen [aus: Hus­sein et al: Acoustic Event Clas­si­fi­ca­tion for Ambi­ent Assist­ed Liv­ing and Health Envi­ron­ments]

Im Rah­men der Forschung zeich­neten die Forsch­er typ­is­che Sprach- sowie nicht-Sprach­se­quen­zen, wie Schreie, brechende Scheiben, Möbelver­rück­en, etc. mit 58 Proban­den auf und annotierten diese manuell. Die Extrahierung der Sprach­merk­male, unterteilt in zeitab­hängige und fre­quen­z­ab­hängige Merk­male, ergab, dass Sprachereignisse auf­grund ihrer spek­tralen Struk­turen bess­er klas­si­fiziert wer­den kön­nen als nicht-Sprachereignisse. Anschließend nutzten die Forsch­er vielver­sprechende Klas­si­fika­toren zur Ein­teilung der akustis­chen Ereignisse in ver­schiedene Klassen. Die besten Ergeb­nisse erre­ichte dabei der Klas­si­fika­tor SMO (engl.: sequen­tial min­i­mal opti­miza­tion) mit 92,5%.

Pub­lika­tion: Hus­sein, Hus­sein; Rit­ter, Marc; Man­they, Robert & Heinzig, Manuel: Acoustic Event Clas­si­fi­ca­tion for Ambi­ent Assist­ed Liv­ing and Health­care Envi­ron­ments. In: Kon­feren­z­pa­per auf der 27. Kon­ferenz Elek­tro­n­is­che Sprachsig­nalver­ar­beitung 2016, Leipzig. [Link]

 
 
Projektgeber

Gef M BMBF

Gef M BMBF

LocalizeIt wird durch das Bundesministerium für Bildung und Forschung BMBF und die BMBF Innovationsinitiative Unternehmen Region von August 2014 bis Juli 2019 gefördert und durch den Projektträger PtJ betreut.

Projektnehmer

Logo TU trans cropp

Logo MI

Logo MC TRANS

localizeIT ist ein Projekt der
Stiftungsjuniorprofessur Media Computing und der Professur Medieninformatik der Technischen Universität Chemnitz

Forschungspartner

Intenta Logo

3D MicroMag Logo

IBS Logo

Kontakt

Dr. rer. nat. Danny Kowerko
Tech­ni­sche Uni­ver­si­tät Chem­nitz
Fakul­tät für Infor­ma­tik
Juniorpro­fes­sur Medi­a Computing
Straße der Natio­nen 62
09111 Chemnitz