2024-03-19 | Anmelden
 
 

Kontexterkennung auf mobilen Endgeräten mittels Sensorfusion

Im Rah­men sein­er Pro­mo­tion betreibt Maik Ben­ndorf, von der Hochschule Mit­twei­da, weit­er­führende Forschung im Bere­ich der Kon­tex­terken­nung auf Smart­phones. Ein mod­ernes Smart­phone hat heute bis zu 40 einge­baute Sen­soren. In sein­er Arbeit möchte Maik Ben­ndorf aus den Dat­en dieser Sen­soren Rückschlüsse auf die Sit­u­a­tion des Nutzers ziehen. Anwen­dung find­et die Kon­tex­terken­nung in soge­nan­nten kon­textsen­si­tiv­en Anwen­dun­gen. Eine solche Anwen­dung kann das Smart­phone während eines Meet­ings z. B. in ein laut­los­es Pro­fil stellen.

Eben­falls auf Sen­sor­dat­en beruht ein Ver­fahren zur Posi­tions­bes­tim­mung, das „Dead Reck­on­ing“ (dt. Kop­pel­nav­i­ga­tion) genan­nt wird. Dieses Ver­fahren ist bere­its seit der frühen Seefahrt bekan­nt und wird genutzt, um von einem bekan­nten Punkt aus­ge­hend die aktuelle Posi­tion zu bes­tim­men. Während dazu früher Kom­pass und Fahrten­mess­er zum Ein­satz kamen, wer­den heute Bewe­gungssen­soren wie z.B. der Beschle­u­ni­gungssen­sor oder das Gyroskop einge­set­zt. Während seines Forschungsaufen­thalts am Cor­nell Lab of Ornithol­o­gy (USA) beschäftigte sich Maik Ben­ndorf mit dieser Art der Posi­tions­bes­tim­mung. Dabei soll das Ergeb­nis sein­er Arbeit einge­set­zt wer­den, um die Bewe­gun­gen von Tieren in freier Wild­bahn zu überwachen. Hierzu wird das Tier mit einem Hals­band verse­hen, welch­es die Sen­soren bein­hal­tet und fortwährend Dat­en aufze­ich­net. Anhand dieser Dat­en lässt sich so die zurück­gelegte Strecke des überwacht­en Tieres nachvol­lziehen. Bleibt die Frage, warum dazu kein GPS Sys­tem einge­set­zt wird? Ein großer Nachteil dieses Sys­tems ist der Energie­ver­brauch, wodurch es für solche Langzeit­stu­di­en recht ungeeignet ist.

Daneben kann Dead Reck­on­ing auch zur Nav­i­ga­tion in Gebäu­den einge­set­zt wer­den, da die GPS-Sig­nale hier in der Regel nicht bzw. nur eingeschränkt nutzbar sind. Smart­phones ver­fü­gen stan­dard­mäßig über alle dafür notwendi­gen Sen­soren. Maik Ben­ndorfs Pro­mo­tions mit dem Titel „Unter­suchung und Opti­mierung der Kon­tex­terken­nung auf mobilen Endgeräten mit­tels Sen­sor­fu­sion“ wird vom ehe­ma­li­gen local­izeIT Pro­jek­tleit­er Prof. Dr. Marc Rit­ter und Prof. Thomas Haensel­mann von der Hochschule Mit­twei­da betreut.

 

Optimierte Analyse von Laserschweißprozessen durch modellbasierte Bildverarbeitung

Standbild des Laserschweißprozesses mit modellierter Ellipse [aus: Kowerko, Danny; Ritter, Marc; Manthey, Robert; John, Björn & Grimm, Michael: Quanti?zierung der geometrischen Eigenschaften von Schmelzzonen bei Laserschweißprozessen]

Stand­bild des Laser­schweißprozess­es mit mod­el­liert­er Ellipse [aus: Kow­erko, Dan­ny; Rit­ter, Marc; Man­they, Robert; John, Björn & Grimm, Michael: Quanti?zierung der geometrischen Eigen­schaften von Schmelz­zo­nen bei Laserschweißprozessen]

In Zusam­me­nar­beit mit der 3D Micro­mac AG fan­den Mitar­beit­er der Junior­pro­fes­sur Media Com­put­ing eine Möglichkeit die qual­i­ta­tive Analyse von Laser­schweißprozessen zu opti­mieren. Dies gelang durch die Kom­bi­na­tion von mod­ell­basiert­er Bild­ver­ar­beitung mit neuer Kam­er­at­e­ch­nolo­gie, die Auf­nah­men mit 2.000 Bildern pro Sekunde bei ein­er Auflö­sung von 1024 ×768 Pix­eln erlaubt. Die Ergeb­nisse dieser Arbeit stellen die Forsch­er vom 1.- 2. Dezem­ber 2016 auf dem Forum Bild­ver­ar­beitung in Karl­sruhe vor.

Die 3D Micro­mac AG ist ein Spezial­ist auf dem Gebi­et der Laser­mikrobear­beitung und somit abhängig von präzisen Analy­sen ihrer Prozesse. Im Mikrom­e­ter­bere­ich sind Hochgeschwindigkeit­sauf­nah­men der Schmelz­zone meist die einzige Möglichkeit für die Qual­ität­sein­schätzung. Ein mehrstu­figes OpenCV-basiertes Bild­ver­ar­beitungsver­fahren mod­el­lierte dabei mit Hil­fe ein­er Ellipse die Schmelz­zone während des Laser­schweißprozess­es. Die Para­me­ter dieser Ellipse wur­den dann als Funk­tion der Zeit durch lin­eare Regres­sion approx­imiert, was Rückschlüsse auf die Auswirkun­gen ver­schieden­er Fak­toren, wie z.B. Laser‑, Werk­stoff- und Werkzeug­pa­ra­me­ter auf das Fügeergeb­nis ermöglicht. Die Arbeit zeigte beispiel­sweise einen lin­earen Zusam­men­hang zwis­chen der Schmelz­zo­nen­fläche und der Laser­leis­tung. Der­ar­tige Ableitun­gen von Geset­zmäßigkeit­en sind erweit­er­bar auf andere Gerätepa­ra­me­ter und erlauben kün­ftig eine com­put­ergestützte Opti­mierung dieser Para­me­ter in Bezug auf die gewün­schte Schmelz­zo­nen­ge­ome­trie. Weit­er­hin soll es möglich sein neue tech­nis­che Ver­fahren wie das Pulsen des Inert­gasstromes durch Charak­ter­isierung der Schmelz­zo­nen­dy­namik und Lokalisierung unge­woll­ter Arte­fak­te (z.B. Spritzer) zu evaluieren.

Pub­lika­tion: Kow­erko, Dan­ny; Rit­ter, Marc; Man­they, Robert; John, Björn & Grimm, Michael: Quan­tifizierung der geometrischen Eigen­schaften von Schmelz­zo­nen bei Laserschweißprozessen

 

Stiftungs-Juniorprofessur unter neuer Leitung

Dr. Danny Kowerko

Dr. Dan­ny Kowerko

Zum 01.09.2016 ver­lässt Prof. Dr. Marc Rit­ter die Stiftungs-Junior­pro­fes­sur Media Com­put­ing und nimmt die Pro­fes­sur für Medi­en­in­for­matik an der Hochschule Mit­twei­da an. Die Pro­jek­te der Stiftungsju­nior­pro­fes­sur begleit­et er zukün­ftig als wis­senschaftlich­er Berater. Bis zur offiziellen Neube­set­zung übern­immt Dr. Dan­ny Kow­erko als Inter­ims-Pro­jek­tleit­er die Führung der Juniorprofessur.

Wir wün­schen Prof. Dr. Marc Rit­ter viel Erfolg und alles Gute für seine beru­fliche Zukunft!

 

Datenreduktion mit geringem Datenverlust in der Videobilderkennung

Überblick von Ähnlichkeitsmaßen bewertet von Mensch und Maschine [aus: Ritter et al: Simplifying Accessibility Without Data Loss: An Exploratory Study on Object Preserving Keyframe Culling, S.9]

Überblick von Ähn­lichkeits­maßen bew­ertet von Men­sch und Mas­chine [aus: Rit­ter et al: Sim­pli­fy­ing Acces­si­bil­i­ty With­out Data Loss: An Explorato­ry Study on Object Pre­serv­ing Keyframe Culling, S.9]

In Zusam­me­nar­beit mit Prof. Dr. Dr. Gisela Susanne Bahr vom Flori­da Insti­tute of Tech­nol­o­gy führte die Stiftung­spro­fes­sur Media Com­put­ing unter der Leitung von Jun.-Prof. Dr. Marc Rit­ter eine explo­rative Studie im Bere­ich der Bilderken­nung in Video­ma­te­r­i­al durch. Ins­beson­dere geht es um die Reduzierung von Video-Keyframes unter Erhal­tung aller rel­e­van­ten Objek­tin­stanzen, welche im Rah­men des TrecVid Instance Search Wet­tbe­werbs 2015 [Link] aus­gewählt wur­den und in vier Stun­den Video­ma­te­r­i­al der BBC Serie “East Enders” erkan­nt wer­den sollten.

Bei der Analyse von Video­ma­te­r­i­al erfol­gt zunächst eine Auswahl von einzel­nen Keyframes, die repräsen­ta­tiv für die jew­eilige Szene ste­hen. Um redun­dante Bilder­in­halte zu ver­mei­den ist die Anzahl der aus­gewählten Keyframes pro Szene so ger­ing wie möglich zu hal­ten, was durch eine fehlende Trainigsmöglichkeit des Algo­rith­mus’ erschw­ert wird. Im Gegen­satz zu anderen Forsch­ern, die eine starre Anzahl von Keyframes auswählen (z.B. ein Keyframe pro Sekunde), entsch­ieden sich die Forsch­er für eine Auswahl­meth­ode, die sich an der Länge der Szene ori­en­tiert, da sich Objek­t­po­si­tio­nen inner­halb län­ger­er Szenen verän­dern kön­nen. In ihrer Studie sortierten die Forsch­er dann manuell die übri­gen Dup­likate aus und ver­sucht­en die ange­wandten Auswahlkri­te­rien objek­tiv zu evaluieren und mit com­put­ergestützten Maßen maschinell nachzustellen. Dabei erre­icht­en sie eine Reduzierung der repräsen­ta­tiv­en Keyframes um 84% bei Erhalt von 82% aller Instanzen der auftre­tenden Objektklassen.

Die Vorstel­lung der Ergeb­nisse der Studie erfol­gt im Juli diesen Jahres auf der Con­fer­ence on Human-Com­put­er Inter­ac­tion Inter­na­tion­al (HCII) in Toron­to, Kanada.

Pub­lika­tion: Rit­ter, Marc; Kow­erko, Dan­ny; Hus­sein, Hus­sein; Heinzig, Manuel; Schloss­er, Tobias; Man­they, Robert & Bahr, Gisela Susanne: Sim­pli­fy­ing Acces­si­bil­i­ty With­out Dat­aloss: An Explorato­ry Study on Object Pre­serv­ing Keyframe Cul­li­ung. In: Uni­ver­sal Access in Human-Com­put­er Inter­ac­tion. Part of Human Com­put­er Inter­ac­tion Inter­na­tion­al (HCII) 2016, At Toron­to, Cana­da, Vol­ume: LNCS, 12 S. [Link]

 

Framework für die Generierung von Multimedia-Testsets

Original Einzelbild und fehlerhafte Strukturen nach der Verarbeitung (aus: Manthey et al: A Framework For Generation Of Testsets For Recent Multimedia Work ows, S. 7]

Orig­i­nal Einzel­bild und fehler­hafte Struk­turen nach der Ver­ar­beitung (aus: Man­they et al: A Frame­work For Gen­er­a­tion Of Test­sets
For Recent Mul­ti­me­dia Work
ows, S. 7]

Robert Man­they, Steve Con­rad und Jun.-Prof. Dr. Marc Rit­ter von der Stiftung­spro­fes­sur Media Com­put­ing der Tech­nis­chen Uni­ver­sität Chem­nitz entwickl­ten ein Frame­work für die Gener­ierung von Test­sets in mul­ti­me­di­alen Work­flows, das sie im Juli diesen Jahres auf der Con­fer­ence on Human-Com­put­er Inter­ac­tion Inter­na­tion­al (HCII) in Toron­to, Kana­da, präsentieren.

Das Frame­work bietet Möglichkeit­en für die Anwen­dung ver­schieden­er Funk­tio­nen, um Test­se­quen­zen zu gener­ieren, deren Einzel­bilder spezielle Muster bein­hal­ten. Diese Muster dienen dazu, nur schw­er erkennbare oder nur sel­ten auftre­tende Fehler im Video­ma­te­r­i­al zu provozieren und die erzeugten Sequen­zen mit dem Aus­gangs­ma­te­r­i­al zu ver­gle­ichen. Auf diese Weise kann fest­gestellt wer­den, ob sich der jew­eilige Fehler im Video­ma­te­r­i­al befind­et ohne eine kom­plette Sich­tung des Orig­i­nals vornehmen zu müssen. Bish­er wur­den meist fer­tige Videoauf­nah­men oder Bilder ver­wen­det, die jedoch nicht in ihrer Auflö­sung etc. an neue Anforderun­gen angepasst wer­den kon­nten ohne dabei Arte­fak­te zu erzeu­gen und somit Fehler bere­its im Tes­taus­gangs­ma­te­r­i­al zu gener­ieren. Mit dem Frame­work ist es nun möglich, die Test­sets beliebig zu gener­ieren und für die gegebe­nen Anforderun­gen zu optimieren.

Pub­lika­tion: Man­they, Robert; Con­rad, Steve & Rit­ter, Marc: A Frame­work For Gen­er­a­tion of Test­sets for Recent Mul­ti­me­dia Work­flows. In: Uni­ver­sal Access in Human-Com­put­er Inter­ac­tion. Part of Human Com­put­er Inter­ac­tion Inter­na­tion­al (HCII) 2016, Toron­to, Cana­da, Vol­ume: LNCS, 9 S. [Link]

 

Die IPT-Initiative lädt zum 2. Workshop ein

Am 24. Mai 2016 find­et von 13 — 17 Uhr das 2. öffentliche Sta­tus­meet­ing der Inno­Pro­file-Trans­fer-Ini­tia­tive local­izeIT mit seinen Stiftern und dem Pro­jek­t­träger im ehrwürdi­gen „Alten Heizhaus“ im Uni­ver­sität­steil in der Straße der Natio­nen statt. Im Fokus der Ver­anstal­tung ste­hen der Rück­blick auf die bish­eri­gen Fortschritte und Errun­gen­schaften im Pro­jekt sowie der Aus­blick auf das weit­ere Vorgehen.

Bei Inter­esse an der Teil­nahme am Work­shop bit­ten wir bis zum 20.5.2016 um eine elek­tro­n­is­che Anmel­dung unter: mc-anmeldung@tu-chemnitz.de.

 

Deutscher Rechenzentrumspreis 2016

digitalfingerprint

Spez­iz­fis­che Ther­mal­muster (Quelle: Blog URZ TU Chemnitz)

Zum zweit­en Mal in Folge gewann das Uni­ver­sität­srechen­zen­trum der TU Chem­nitz gemein­sam mit der Junior­pro­fes­sur “Media Com­put­ing” den begehrten Deutschen Rechen­zen­trum­spreis. In der Kat­e­gorie “Energieef­fizien­zsteigerun­gen durch Umbau in einem Bestand­srechen­zen­trum” fes­tigte das Uni­ver­sität­srechen­zen­r­tum seine Pos­tion inner­halb der inge­samt 58 deutsch­landweit ein­gere­icht­en Pro­jek­te aus Indus­trie und Forschung und erre­ichte damit einen Spitzenplatz.

Gemein­sam mit Jun.-Prof. Dr. Marc Rit­ter, von der Junior­pro­fes­sur “Media Com­put­ing”, entwick­elte PD Dr. Matthias Vodel, vom Uni­ver­sität­srechen­zen­trum, das Forschung­spro­jekt “Ther­mal-Fin­ger­prints: Mul­ti­di­men­sion­ale Echtzei­t­analyse im Rechen­zen­trum”. Ziel des Pro­jek­tes ist es, alle Soft­ware-Prozesse im Rechen­zen­trum präzise zu erken­nen und zu klas­si­fizieren. So kann die Kli­ma­tisierung der Server­räume energieef­fizient den momen­ta­nen Anforderun­gen angepasst wer­den. Unter­schiedliche Prozess­in­for­ma­tio­nen wer­den dabei zu einem dig­i­tal­en, ther­mis­chen Fin­ger­ab­druck verknüpft, der ein­deutig und wieder­erkennbar ist. Die Kli­ma­tisierungssys­teme kön­nen somit im Ide­al­fall Tem­per­atur­spitzen frühzeit­ig und ressourcenscho­nend ver­mei­den. Dadurch wird die Lebens­dauer von Rechen- und Spe­ich­er­sys­te­men gravierend ver­längert. Die Wis­senschaftler der Junior­pro­fes­sur “Media Com­put­ing” mod­i­fizieren hier­für ein Soft­ware-Frame­work zur Audio- und Video-Analyse für die Anwen­dung auf mul­ti­di­men­sion­ale Daten­quellen im Rechen­zen­trum. “Die Gener­ierung und Nutzung ther­mis­ch­er Fin­ger­prints zur Opti­mierung von Kli­ma­tisierungslö­sun­gen im Rechen­zen­trum stellt eine rich­tungsweisende Inno­va­tion dar”, fügt Rit­ter hinzu.

 

Klassifizierung akustischer Ereignisse zur Unterstützung im Pflegebereich

Mitar­beit­er der Junior­pro­fes­sur Media Com­put­ing und der Inten­ta GmbH reicht­en eine Forschungsar­beit zum The­ma der Klas­si­fizierung von Audio­ereignis­sen, wie Sprache und für den Pflege­bere­ich typ­is­che Geräusche, auf der Kon­ferenz für Elek­tro­n­is­che Sprachsig­nalver­ar­beitung (ESSV) in Leipzig von 2. bis 4. März 2016 ein.

Frequenzspektren von Sprach- sowie nicht-Sprachereignissen [aus: Hussein et al: Acoustic Event Classification for Ambient Assisted Living and Health Environments]

Fre­quen­zspek­tren von Sprach- sowie nicht-Sprachereignis­sen [aus: Hus­sein et al: Acoustic Event Clas­si­fi­ca­tion for Ambi­ent Assist­ed Liv­ing and Health Environments]

Im Rah­men der Forschung zeich­neten die Forsch­er typ­is­che Sprach- sowie nicht-Sprach­se­quen­zen, wie Schreie, brechende Scheiben, Möbelver­rück­en, etc. mit 58 Proban­den auf und annotierten diese manuell. Die Extrahierung der Sprach­merk­male, unterteilt in zeitab­hängige und fre­quen­z­ab­hängige Merk­male, ergab, dass Sprachereignisse auf­grund ihrer spek­tralen Struk­turen bess­er klas­si­fiziert wer­den kön­nen als nicht-Sprachereignisse. Anschließend nutzten die Forsch­er vielver­sprechende Klas­si­fika­toren zur Ein­teilung der akustis­chen Ereignisse in ver­schiedene Klassen. Die besten Ergeb­nisse erre­ichte dabei der Klas­si­fika­tor SMO (engl.: sequen­tial min­i­mal opti­miza­tion) mit 92,5%.

Pub­lika­tion: Hus­sein, Hus­sein; Rit­ter, Marc; Man­they, Robert & Heinzig, Manuel: Acoustic Event Clas­si­fi­ca­tion for Ambi­ent Assist­ed Liv­ing and Health­care Envi­ron­ments. In: Kon­feren­z­pa­per auf der 27. Kon­ferenz Elek­tro­n­is­che Sprachsig­nalver­ar­beitung 2016, Leipzig. [Link]

 

Grüße zum neuen Jahr 2016

Voll­ge­tankt mit neuer Energie und Taten­drang melden wir, das Team der Inno­Pro­file-Trans­fer-Ini­tia­tive local­izeIT, uns im neuen Jahr zurück. Denn wie Johann Wolf­gang von Goethe schon sagte:

Wenn ein Jahr nicht leer ver­laufen soll, muss man beizeit­en anfangen.”

In diesem Sinne wün­schen wir allen inter­essierten Lesern und Part­nern der Ini­tia­tive ein gesun­des und erfol­gre­iches Jahr 2016!

Ihr local­izeIT-Team

 

Forschungsabkommen zwischen dem Cornell Lab of Ornithology und der Stiftungsjuniorprofessur

Nach dem 1. Platz bei der Eval­u­a­tion­skam­pagne DCLDE im Juli 2015 bei der Detek­tion von Barten­walen ver­tiefte Jun.-Prof. Dr. Marc Rit­ter bei seinem Forschungsaufen­thalt am Cor­nell Lab of Ornithol­o­gy, Itha­ca, USA die gegen­seit­i­gen Beziehun­gen zur Forschung auf dem Gebi­et der robusten Lokalisierung von bioakustis­chen Sig­nalen im Out­door­bere­ich. Zukün­ftig ist vor allem die Inte­gra­tion von Stu­den­ten und Mitar­beit­ern der Ini­tia­tive in gemein­same Aus­tausch­pro­gramme auf inter­na­tionalem Niveau angestrebt.

Bei dem Forschungsaufen­thalt im Novem­ber kon­nte zudem ein automa­tis­ches in Cor­nell entwick­eltes Livede­tek­tion­ssys­tem in Betrieb genom­men wer­den, das zum Schutz wildleben­der Tier­arten einge­set­zt wer­den soll. Dazu platzierte das Forscherteam um Prof. Dr. Hol­ger Klinck mit u.a. Mikro­fon und Funkan­tenne aus­ges­tat­tete Box­en im angren­zen­den Wal­dob­ser­va­to­ri­um. Mit Hil­fe der aktuellen Forschun­gen im Pro­jekt local­izeIt wird zukün­ftig ver­sucht wer­den, bish­erige Ken­nt­nisse zur Lokali­sa­tion akustis­ch­er Ereignisse in den Out­door­bere­ich zu über­tra­gen. Detek­toren für diese Zwecke existieren zwar bere­its, jedoch gilt es deren Detek­tion­srate zu opti­mieren und die Quan­tität von Falschalar­men zu reduzieren.

Mit dem Ziel die inter­na­tionale Kol­lab­o­ra­tion zur bewussten Detek­tion von bioakustis­chen Sig­nalen im Out­door­bere­ich zu ver­tiefen und den stu­den­tis­chen Aus­tausch anzure­gen, befind­en sich bere­its weit­ere gemein­same Pro­jek­te mit dem Cor­nell Lab of Ornithol­o­gy gegen­wär­tig in der Antragsphase.

 
 
Projektgeber

Gef M BMBF

Gef M BMBF

LocalizeIt wird durch das Bundesministerium für Bildung und Forschung BMBF und die BMBF Innovationsinitiative Unternehmen Region von August 2014 bis Juli 2019 gefördert und durch den Projektträger PtJ betreut.

Projektnehmer

Logo TU trans cropp

Logo MI

Logo MC TRANS

localizeIT ist ein Projekt der
Stiftungsjuniorprofessur Media Computing und der Professur Medieninformatik der Technischen Universität Chemnitz

Forschungspartner

Intenta Logo

3D MicroMag Logo

IBS Logo

Kontakt

Dr. rer. nat. Danny Kowerko
Tech­ni­sche Uni­ver­si­tät Chem­nitz
Fakul­tät für Infor­ma­tik
Juniorpro­fes­sur Medi­a Computing
Straße der Natio­nen 62
09111 Chemnitz