2017-09-22 | Anmelden
 
 

Best Paper Award bei der International Summerschool on Computer Science, Computer Engineering and Educational Technology (ISCET) 2017

Screenshot der grafischen Nutzeroberfläche der Curvefit-Webanwendung im Kontext eines physikalischen Praktikumsversuchs

Bei der 6. Auflage der ISCET, welche dieses Jahr im Informatik-Begegnungszentrum Laubusch stattfand, wurde von den mehr als 30 Summer School-Teilnehmern der Beitrag A web-based application  for data visualisation and non-linear regression analysis including error calculation for laboratory classes in natural and life sciences auf den 1. Platz gewählt. Dabei wurde sowohl Qualität des Vortrags als auch der schriftlichen Publikation im Tagungsband bewertet. Bei der ISCET Summer School treffen sich junge Forscher der TU Chemnitz und internationaler Universitäten aus Mongolei, Litauen, Russland, China und Pakistan zum wissenschaftlichen, aber auch kulturellen Austausch. Teil des Konzepts ist es Studierende bereits frühzeitig heranzuführen ihre Forschung in einer schriftlichen Arbeit für den ISCET-Tagungsband zu schreiben und diese dann zur Summer School zu präsentieren und Anknüpfungspunkte für Kooperationsprojekte suchen.

Ein Schwerpunkt besteht in sog. Bildungstechnologien. Die von Titus Keller im Rahmen seines Forschungspraktikums entstandene Webbrowseranwendung, die unter curvefit.tu-chemnitz.de erreichbar ist, wurde dabei in den Kontext der Durchführung physikalischer Praktikumsversuche gestellt. Dort könnten experimentell ermittelte Daten in Zukunft direkt digital erfasst, gespeichert, vorverarbeitet, graphisch visualisert und mittels Regressionsanalyse ausgewertet und per URL-Export als Gesamtprojekt geteilt werden. Das erlaubt dem Betreuer in bei der Bewertung des zu erstellenden Protokolls bessere Nachvollziehbarkeit, da jeder Berechnungsschritt transparent dokumentiert ist. Auch Größtfehlerabschätzung inkl. Fehlerfortpflanzung sind innerhalb der graphischen Oberfläche abbildbar. Perspektivisch lassen sich über den einfachen Weblink-basierten Export versuchsspezifische Muster-Projekte in einer Datenbank hinterlegen.  Damit wird die Webanwendung für eine breite Community an Forschern interessant, da sich einerseits fachspezifische Formeln und Folgeberechnungen durchführen und und per Link teilen ließen, wie es Nutzer von Cloudspeichern gewohnt sind. Wert wurde darauf gelegt möglichst mit Open-Source-basierten Lösungen zu arbeiten, die in Forschung und Lehre frei eingesetzt werden können. Rechenzentren könnten das Webtool dann künftig zentral hosten und für Studierende und Mitarbeiter installations- und kostenfrei nutzbar machen.

 

Offene Stellen im Projekt und der Stiftungsjuniorprofessur

Leider wird uns auch der Kollege Dr. Hussein Hussein verlassen Richtung FU Berlin. Interessierte finden Detiails zur Stellenausschreibung hier:

https://www.tu-chemnitz.de/verwaltung/personal/stellen/257090_1_Si.php

 

 

Fertigstellung des audiovisuellen Media Computing Labors

Anfang des Jahres erhielt das audiovisuelle Labor der Juniorprofessur Media Computing seinen letzten Schliff. Der Bühnenkäfig ist ausgestattet mit 16 Lautsprechern, 64 Mikrofonen und 10 Stereokameras (Smart Sensors), die eine Vielzahl an Objekten und Geräuschen aufzeichnen und lokalisieren können. Die ermittelten Daten werden von einem „Storage System“ mit 64 Terabyte Speicherkapazität gesichert und verarbeitet. Zwei (MIDI-) Keyboards sorgen für die Generierung von Tonsequenzen für unterschiedliche Instrumente, welche in der Erforschung der akustischen Lokalisierung ihren Einsatz finden sollen.

Am 01.02.2017 wurde das Labor in Betrieb genommen und für Forschungen zur Objekt- und akustischen Lokalisierung genutzt. Weiter Informationen finden sich unter technische Ausstattung des MC-Labors und werden auf der International Summer School on Computer science, Computer Engineering and Education Technology in Laubusch vom 03.-07.07.2017 vorgestellt.

 

TrecVid Instance Search 2016

Webinterface für Annotation [Quelle: S. Kahl: Präsentation TUC at TrecVid 2016

Auch in diesem Jahr beteiligte sich die Juniorprofessur Media Computing am alljährlichen TrecVid Instance Search Wettbewerb. Die internationale wissenschaftliche Evaluationskampagne TRECVID ist eine etabilierte Serie von Workshops, die sich auf die inhaltsbasierte Informationsgewinnung und Auswertung digitaler Videos konzentriert. Jedes Jahr stellen sich Teilnehmer einer neuen realitätsnahen Aufgabe, die Forscher diverser internationaler Institute in einem Wettbewerb versuchen bestmöglich zu lösen. Die TRECVID-erfahrenen Forscher der Juniorprofessur Media Computing und der Professur Medieninformatik der Technischen Universität Chemnitz nahmen nunmehr zum dritten Mal teil, dieses Jahr in den Kategorien „Instance Search Automatic Run“ (AR) und „Instance Search Interactive Run“ (IR).

Ziel war die Verbesserung der Vorjahres-Ergebnisse unter Nutzung von Open Source Tools auf Consumer Hardware. Dabei sollten vor allem speziell entwickelte Annotationswerkzeuge zur kollaborativen Nutzung über ein Webinterface zum Einsatz kommen mit denen mehr Ground-Truth Daten pro Zeiteinheit erzeugt werden können. Außerdem wurden Zeiten erfasst um u.a. die effizientesten Nutzer für den interaktiven Run zu bestimmen. Daten-Grundlage des Wettbewerbs war auch dieses Mal wieder die britische TV-Serie „Eastenders“. Im Wettbewerb galt es bestimmte Rollen der Serie an einem definierten Ort automatisiert zu ermitteln.  Dazu erfolgte im ersten Schritt nach der Extraktion der sog. Keyframes deren Annotation durch Markieren von Personen mit Bounding Boxen (mittels Rechtecken, siehe Abbildung) und Metadatenanreicherung mit Ortsinformationen. Zur Personen- und Ortsklassifikation wurden dann im zweiten Schritt neuronale Netze (CNNs – Convolutional Neural Networks) trainiert. Da aufeinanderfolgende Bilder am selben Ort mit großer Wahrscheinlichkeit zu einer Szene (Shot) gehören, wurden Ähnlichkeitsmetriken angwandt, um Bilder einem Shot und damit einer Gruppennummer zuzuordnen. Schritt drei beinhaltete ein Re-Ranking der Ergebnisse der CNNs durch Mittelung der CNN-Konfidenzwerte aller Bilder einer Gruppe. Schließlich folgte im interaktiven Run die manuelle Evaluation der Ergebnisse mit Hilfe des Webinterfaces durch den zeiteffizientesten Annotator.

Die Forscher erzielten mit ihrer Methode eine durchschnittliche Trefferquote von 31,8% im Interactive Run und 14,4% im Automatic Run, wobei die Top 10 Präzision 90,5% (IR) und 49,7% (AR) betrug. Damit erreichte die TU Chemnitz den 2. Platz im Interactive Run und den 5. Platz im Automatic Run.

 

 

Kontexterkennung auf mobilen Endgeräten mittels Sensorfusion

Im Rahmen seiner Promotion betreibt Maik Benndorf, von der Hochschule Mittweida, weiterführende Forschung im Bereich der Kontexterkennung auf Smartphones. Ein modernes Smartphone hat heute bis zu 40 eingebaute Sensoren. In seiner Arbeit möchte Maik Benndorf aus den Daten dieser Sensoren Rückschlüsse auf die Situation des Nutzers ziehen. Anwendung findet die Kontexterkennung in sogenannten kontextsensitiven Anwendungen. Eine solche Anwendung kann das Smartphone während eines Meetings z. B. in ein lautloses Profil stellen.

Ebenfalls auf Sensordaten beruht ein Verfahren zur Positionsbestimmung, das „Dead Reckoning“ (dt. Koppelnavigation) genannt wird. Dieses Verfahren ist bereits seit der frühen Seefahrt bekannt und wird genutzt, um von einem bekannten Punkt ausgehend die aktuelle Position zu bestimmen. Während dazu früher Kompass und Fahrtenmesser zum Einsatz kamen, werden heute Bewegungssensoren wie z.B. der Beschleunigungssensor oder das Gyroskop eingesetzt. Während seines Forschungsaufenthalts am Cornell Lab of Ornithology (USA) beschäftigte sich Maik Benndorf mit dieser Art der Positionsbestimmung. Dabei soll das Ergebnis seiner Arbeit eingesetzt werden, um die Bewegungen von Tieren in freier Wildbahn zu überwachen. Hierzu wird das Tier mit einem Halsband versehen, welches die Sensoren beinhaltet und fortwährend Daten aufzeichnet. Anhand dieser Daten lässt sich so die zurückgelegte Strecke des überwachten Tieres nachvollziehen. Bleibt die Frage, warum dazu kein GPS System eingesetzt wird? Ein großer Nachteil dieses Systems ist der Energieverbrauch, wodurch es für solche Langzeitstudien recht ungeeignet ist.

Daneben kann Dead Reckoning auch zur Navigation in Gebäuden eingesetzt werden, da die GPS-Signale hier in der Regel nicht bzw. nur eingeschränkt nutzbar sind. Smartphones verfügen standardmäßig über alle dafür notwendigen Sensoren. Maik Benndorfs Promotions mit dem Titel „Untersuchung und Optimierung der Kontexterkennung auf mobilen Endgeräten mittels Sensorfusion“ wird vom ehemaligen localizeIT Projektleiter Prof. Dr. Marc Ritter und Prof. Thomas Haenselmann von der Hochschule Mittweida betreut.

 

Optimierte Analyse von Laserschweißprozessen durch modellbasierte Bildverarbeitung

Standbild des Laserschweißprozesses mit modellierter Ellipse [aus: Kowerko, Danny; Ritter, Marc; Manthey, Robert; John, Björn & Grimm, Michael: Quanti?zierung der geometrischen Eigenschaften von Schmelzzonen bei Laserschweißprozessen]

Standbild des Laserschweißprozesses mit modellierter Ellipse [aus: Kowerko, Danny; Ritter, Marc; Manthey, Robert; John, Björn & Grimm, Michael: Quanti?zierung der geometrischen Eigenschaften von Schmelzzonen bei Laserschweißprozessen]

In Zusammenarbeit mit der 3D Micromac AG fanden Mitarbeiter der Juniorprofessur Media Computing eine Möglichkeit die qualitative Analyse von Laserschweißprozessen zu optimieren. Dies gelang durch die Kombination von modellbasierter Bildverarbeitung mit neuer Kameratechnologie, die Aufnahmen mit 2.000 Bildern pro Sekunde bei einer Auflösung von 1024 ×768 Pixeln erlaubt. Die Ergebnisse dieser Arbeit stellen die Forscher vom 1.- 2. Dezember 2016 auf dem Forum Bildverarbeitung in Karlsruhe vor.

Die 3D Micromac AG ist ein Spezialist auf dem Gebiet der Lasermikrobearbeitung und somit abhängig von präzisen Analysen ihrer Prozesse. Im Mikrometerbereich sind Hochgeschwindigkeitsaufnahmen der Schmelzzone meist die einzige Möglichkeit für die Qualitätseinschätzung. Ein mehrstufiges OpenCV-basiertes Bildverarbeitungsverfahren modellierte dabei mit Hilfe einer Ellipse die Schmelzzone während des Laserschweißprozesses. Die Parameter dieser Ellipse wurden dann als Funktion der Zeit durch lineare Regression approximiert, was Rückschlüsse auf die Auswirkungen verschiedener Faktoren, wie z.B. Laser-, Werkstoff- und Werkzeugparameter auf das Fügeergebnis ermöglicht. Die Arbeit zeigte beispielsweise einen linearen Zusammenhang zwischen der Schmelzzonenfläche und der Laserleistung. Derartige Ableitungen von Gesetzmäßigkeiten sind erweiterbar auf andere Geräteparameter und erlauben künftig eine computergestützte Optimierung dieser Parameter in Bezug auf die gewünschte Schmelzzonengeometrie. Weiterhin soll es möglich sein neue technische Verfahren wie das Pulsen des Inertgasstromes durch Charakterisierung der Schmelzzonendynamik und Lokalisierung ungewollter Artefakte (z.B. Spritzer) zu evaluieren.

Publikation: Kowerko, Danny; Ritter, Marc; Manthey, Robert; John, Björn & Grimm, Michael: Quantifizierung der geometrischen Eigenschaften von Schmelzzonen bei Laserschweißprozessen

 

Stiftungs-Juniorprofessur unter neuer Leitung

Dr. Danny Kowerko

Dr. Danny Kowerko

Zum 01.09.2016 verlässt Prof. Dr. Marc Ritter die Stiftungs-Juniorprofessur Media Computing und nimmt die Professur für Medieninformatik an der Hochschule Mittweida an. Die Projekte der Stiftungsjuniorprofessur begleitet er zukünftig als wissenschaftlicher Berater. Bis zur offiziellen Neubesetzung übernimmt Dr. Danny Kowerko als Interims-Projektleiter die Führung der Juniorprofessur.

Wir wünschen Prof. Dr. Marc Ritter viel Erfolg und alles Gute für seine berufliche Zukunft!

 

Datenreduktion mit geringem Datenverlust in der Videobilderkennung

Überblick von Ähnlichkeitsmaßen bewertet von Mensch und Maschine [aus: Ritter et al: Simplifying Accessibility Without Data Loss: An Exploratory Study on Object Preserving Keyframe Culling, S.9]

Überblick von Ähnlichkeitsmaßen bewertet von Mensch und Maschine [aus: Ritter et al: Simplifying Accessibility Without Data Loss: An Exploratory Study on Object Preserving Keyframe Culling, S.9]

In Zusammenarbeit mit Prof. Dr. Dr. Gisela Susanne Bahr vom Florida Institute of Technology führte die Stiftungsprofessur Media Computing unter der Leitung von Jun.-Prof. Dr. Marc Ritter eine explorative Studie im Bereich der Bilderkennung in Videomaterial durch. Insbesondere geht es um die Reduzierung von Video-Keyframes unter Erhaltung aller relevanten Objektinstanzen, welche im Rahmen des TrecVid Instance Search Wettbewerbs 2015 [Link] ausgewählt wurden und in vier Stunden Videomaterial der BBC Serie „East Enders“ erkannt werden sollten.

Bei der Analyse von Videomaterial erfolgt zunächst eine Auswahl von einzelnen Keyframes, die repräsentativ für die jeweilige Szene stehen. Um redundante Bilderinhalte zu vermeiden ist die Anzahl der ausgewählten Keyframes pro Szene so gering wie möglich zu halten, was durch eine fehlende Trainigsmöglichkeit des Algorithmus‘ erschwert wird. Im Gegensatz zu anderen Forschern, die eine starre Anzahl von Keyframes auswählen (z.B. ein Keyframe pro Sekunde), entschieden sich die Forscher für eine Auswahlmethode, die sich an der Länge der Szene orientiert, da sich Objektpositionen innerhalb längerer Szenen verändern können. In ihrer Studie sortierten die Forscher dann manuell die übrigen Duplikate aus und versuchten die angewandten Auswahlkriterien objektiv zu evaluieren und mit computergestützten Maßen maschinell nachzustellen. Dabei erreichten sie eine Reduzierung der repräsentativen Keyframes um 84% bei Erhalt von 82% aller Instanzen der auftretenden Objektklassen.

Die Vorstellung der Ergebnisse der Studie erfolgt im Juli diesen Jahres auf der Conference on Human-Computer Interaction International (HCII) in Toronto, Kanada.

Publikation: Ritter, Marc; Kowerko, Danny; Hussein, Hussein; Heinzig, Manuel; Schlosser, Tobias; Manthey, Robert & Bahr, Gisela Susanne: Simplifying Accessibility Without Dataloss: An Exploratory Study on Object Preserving Keyframe Culliung. In: Universal Access in Human-Computer Interaction. Part of Human Computer Interaction International (HCII) 2016, At Toronto, Canada, Volume: LNCS, 12 S. [Link]

 

Framework für die Generierung von Multimedia-Testsets

Original Einzelbild und fehlerhafte Strukturen nach der Verarbeitung (aus: Manthey et al: A Framework For Generation Of Testsets For Recent Multimedia Work ows, S. 7]

Original Einzelbild und fehlerhafte Strukturen nach der Verarbeitung (aus: Manthey et al: A Framework For Generation Of Testsets
For Recent Multimedia Work
ows, S. 7]

Robert Manthey, Steve Conrad und Jun.-Prof. Dr. Marc Ritter von der Stiftungsprofessur Media Computing der Technischen Universität Chemnitz entwicklten ein Framework für die Generierung von Testsets in multimedialen Workflows, das sie im Juli diesen Jahres auf der Conference on Human-Computer Interaction International (HCII) in Toronto, Kanada, präsentieren.

Das Framework bietet Möglichkeiten für die Anwendung verschiedener Funktionen, um Testsequenzen zu generieren, deren Einzelbilder spezielle Muster beinhalten. Diese Muster dienen dazu, nur schwer erkennbare oder nur selten auftretende Fehler im Videomaterial zu provozieren und die erzeugten Sequenzen mit dem Ausgangsmaterial zu vergleichen. Auf diese Weise kann festgestellt werden, ob sich der jeweilige Fehler im Videomaterial befindet ohne eine komplette Sichtung des Originals vornehmen zu müssen. Bisher wurden meist fertige Videoaufnahmen oder Bilder verwendet, die jedoch nicht in ihrer Auflösung etc. an neue Anforderungen angepasst werden konnten ohne dabei Artefakte zu erzeugen und somit Fehler bereits im Testausgangsmaterial zu generieren. Mit dem Framework ist es nun möglich, die Testsets beliebig zu generieren und für die gegebenen Anforderungen zu optimieren.

Publikation: Manthey, Robert; Conrad, Steve & Ritter, Marc: A Framework For Generation of Testsets for Recent Multimedia Workflows. In: Universal Access in Human-Computer Interaction. Part of Human Computer Interaction International (HCII) 2016, Toronto, Canada, Volume: LNCS, 9 S. [Link]

 

Die IPT-Initiative lädt zum 2. Workshop ein

Am 24. Mai 2016 findet von 13 – 17 Uhr das 2. öffentliche Statusmeeting der InnoProfile-Transfer-Initiative localizeIT mit seinen Stiftern und dem Projektträger im ehrwürdigen „Alten Heizhaus“ im Universitätsteil in der Straße der Nationen statt. Im Fokus der Veranstaltung stehen der Rückblick auf die bisherigen Fortschritte und Errungenschaften im Projekt sowie der Ausblick auf das weitere Vorgehen.

Bei Interesse an der Teilnahme am Workshop bitten wir bis zum 20.5.2016 um eine elektronische Anmeldung unter: mc-anmeldung@tu-chemnitz.de.

 
 
Projektgeber

Gef M BMBF

Gef M BMBF

LocalizeIt wird durch das Bundesministerium für Bildung und Forschung BMBF und die BMBF Innovationsinitiative Unternehmen Region von August 2014 bis Juli 2019 gefördert und durch den Projektträger PtJ betreut.

Projektnehmer

Logo TU trans cropp

Logo MI

Logo MC TRANS

localizeIT ist ein Projekt der
Stiftungsjuniorprofessur Media Computing und der Professur Medieninformatik der Technischen Universität Chemnitz

Forschungspartner

Intenta Logo

3D MicroMag Logo

IBS Logo

Kontakt

Dr. rer. nat. Danny Kowerko
Tech­ni­sche Uni­ver­si­tät Chem­nitz
Fakul­tät für Infor­ma­tik
Juniorpro­fes­sur Medi­a Computing
Straße der Natio­nen 62
09111 Chemnitz