2017-09-22 | Anmelden
 
 

Autoren-Archiv

Artikel von Evelyn Lorenz

Grüße zum neuen Jahr 2016

Vollgetankt mit neuer Energie und Tatendrang melden wir, das Team der InnoProfile-Transfer-Initiative localizeIT, uns im neuen Jahr zurück. Denn wie Johann Wolfgang von Goethe schon sagte:

„Wenn ein Jahr nicht leer verlaufen soll, muss man beizeiten anfangen.“

In diesem Sinne wünschen wir allen inter­essierten Lesern und Part­nern der Ini­tia­tive ein gesun­des und erfol­gre­iches Jahr 2016!

Ihr localizeIT-Team

 

Forschungsabkommen zwischen dem Cornell Lab of Ornithology und der Stiftungsjuniorprofessur

Nach dem 1. Platz bei der Evaluationskampagne DCLDE im Juli 2015 bei der Detektion von Bartenwalen vertiefte Jun.-Prof. Dr. Marc Ritter bei seinem Forschungsaufenthalt am Cornell Lab of Ornithology, Ithaca, USA die gegenseitigen Beziehungen zur Forschung auf dem Gebiet der robusten Lokalisierung von bioakustischen Signalen im Outdoorbereich. Zukünftig ist vor allem die Integration von Studenten und Mitarbeitern der Initiative in gemeinsame Austauschprogramme auf internationalem Niveau angestrebt.

Bei dem Forschungsaufenthalt im November konnte zudem ein automatisches in Cornell entwickeltes Livedetektionssystem in Betrieb genommen werden, das zum Schutz wildlebender Tierarten eingesetzt werden soll. Dazu platzierte das Forscherteam um Prof. Dr. Holger Klinck mit u.a. Mikrofon und Funkantenne ausgestattete Boxen im angrenzenden Waldobservatorium. Mit Hilfe der aktuellen Forschungen im Projekt localizeIt wird zukünftig versucht werden, bisherige Kenntnisse zur Lokalisation akustischer Ereignisse in den Outdoorbereich zu übertragen. Detektoren für diese Zwecke existieren zwar bereits, jedoch gilt es deren Detektionsrate zu optimieren und die Quantität von Falschalarmen zu reduzieren.

Mit dem Ziel die internationale Kollaboration zur bewussten Detektion von bioakustischen Signalen im Outdoorbereich zu vertiefen und den studentischen Austausch anzuregen, befinden sich bereits weitere gemeinsame Projekte mit dem Cornell Lab of Ornithology gegenwärtig in der Antragsphase.

 

RapidMiner – Einladung zum Workshop

Die Juniorprofessur Media Computing veranstaltet eine Workshop-Reihe zum Thema Data-Mining-Tools. In der nächsten Veranstaltung am 09.12.2015 wird von 14:00-16:00 das Softwarewerkzeug „RapidMiner“ vorgestellt. Der Workshop wird von Herrn Maik Benndorf (M.Sc.) durchgeführt, der zur Zeit an der Fakultät Informatik der TU Chemnitz promoviert und als wissenschaftlicher Mitarbeiter an der Hochschule Mittweida tätig ist.

Inhaltlich werden folgende Themen fokussiert:

  • Installation & Setup
  • Einführung in Grundfunktionalität sowie Speicherverwaltung
  • Import von Daten
  • Lernen & Klassifikation
  • Anwendung und Validierung
  • Plugins und Erweiterungsmöglichkeiten
  • FAQ

Der Workshop ist frei zugänglich und wendet sich insbesondere an Interessierte innerhalb der InnoProfile-Initiative localizeIT und der beteiligten Institutionen. Veranstaltungsort ist die Technische Universität Chemnitz, Straße der Nationen 62 in 09111 Chemnitz. Aufgrund der begrenzten Teilnehmerzahl ist eine Anmeldung bei Frau Evelyn Lorenz (evelyn.lorenz@informatik.tu-chemnitz.de) bis zum 06.12.2015 erforderlich. Raumnummer und Anfahrtsbeschreibung werden nach erfolgter Anmeldung per E-Mail übermittelt.

 

Erneute Teilnahme am TRECVID Instance Search 2015 – Mit neuen Methoden näher ans Ziel

Die internationale wissenschaftliche Evaluationskampagne TRECVID ist eine etabilierte Serie von Workshops, die sich auf die inhaltsbasierte Informationsgewinnung und Auswertung und digitaler Videos konzentriert. Jedes Jahr stellen sich Teilnehmer einer neuen realitätsnahen Aufgabe, die Forscher diverser internationaler Institute in einer Art Wettbewerb lösen. Die TRECVID-erfahrenen Forscher der Juniorprofessur Media Computing und der Professur Medieninformatik der Technischen Universität Chemnitz nahmen gemeinsam mit Prof. Dr. Dr. Gisela Susanne Bahr vom Florida Institute of Technology (FIT) zum zweiten Mal teil und waren dieses Jahr auch im Bereich der „Deep Learning Strategies“ aktiv.

Zudem wurden neue Methoden bzw. deren Verknüpfungen im Task Instance Search angewendet, um die geforderten Bildinhalte in vier Durchgängen, davon ein interaktiver und drei automatische, korrekt zu erkennen. So wurden die Methoden CNN (Convolutional Neural Network), die eine Art künstliches neurales Netzwerk erstellen, bei dem die „Neuronen“ auf sich überlappende Bereiche reagieren, und SIFT (Scale Invariant Feature Transform), bei dem die Merkmalsbeschreibungen invariant gegenüber z.B. Rotation, Skalierung, Beleuchtungsvariation etc. sind, mit einem vorangestellten Sequence Clustering (SC) kombiniert. Die Forscher stellten fest, dass die Methoden CNN und SIFT in mehr als der Hälfte der Fälle der geforderten Suchanfragen erfolgreich waren, wobei SIFT besonders gut bei strukturierten Objekten mit scharfen Kanten funktionierte. Zusätzlich erzielte das Sequence Clustering (SC) als Vorverarbeitungsprozess eine merkliche Verbesserung der Detektionsergebnisse, sodass die Forscher insgesamt mehrere verschiedene Potentiale zur Optimierung der Objekterkennung aufdeckten.

Die Ergebnisse wurden vom 16.-18. November 2015 beim National Institute of Standards and Technology, Maryland, USA von Juniorprofessor Dr. Marc Ritter präsentiert.

Publikation: Ritter, Marc; Rickert, Markus; Juturu Chenchu, Lokesh; Kahl, Stefan; Herms, Robert; Hussein, Hussein; Heinzig, Manuel, Manthey, Robert; Richter, Daniel; Bahr, Gisela Susanne & Eibl, Maximilian: Technische Universität Chemnitz at TRECVID Instance Search 2015. In: TRECVID Workshop, 16.-18.11.2015, Gaithersburg, Maryland, USA, 12 S. [Link@RG][Link@NIST]

 

 

Juniorprofessur Media Computing an der Herbstschule für Information Retrieval und Information Foraging

Juniorprofessor Dr. Marc Ritter präsentierte vom 19. bis 25. September 2015 die aktuellen Forschungsprojekte seiner Stiftungsprofessur Media Computing auf der Herbstschule für Information Retrieval und Information Foraging in Kathlenburg, einer Veranstaltung der Universität Hildesheim unter der Leitung von Prof. Thomas Mandel und Dr. Ben Heuwig. Die Veranstaltung diente als Forum für internationale Studenten, Promovenden und Forschern aus zahlreichen Nationen, um sich über aktuelle Forschungen und Probleme auszutauschen. Dabei wurde besonders auf die Vielfalt der Forschungsthemen unter den Teilnehmern und Vortragenden Wert gelegt, deren Schwerpunkte auf der Verhaltensanalyse von Nutzern bei Suchanfragen im Internet sowie der effektiven Nutzung gewonnener Informationen lagen.

Ein „Interkultureller Workshop“ verbesserte das Verständnis zwischen den verschiedenen Kulturen der Teilnehmer untereinander und beleuchtete  Probleme beim kooperativen Umgang mit anderen Ethnien. In den folgenden Tagen präsentierten die internationalen Forscher ihre aktuellen Projekte – darunter auch Juniorprofessor Dr. Marc Ritter mit seinem Workshop zum Thema „Multimedia Information Retrieval“. Dabei ging er auf den aktuellen Forschungsstand der Themengebiete „Bilderkennung“ und „Intelligente Videoanalyse mit sehr großen Datenmengen“ ein, die Bestandteil in der audiovisuellen Verarbeitung der InnoProfile-Transfer Initiative LocalizeIt sind. Durch diesen internationalen Austausch wurden zahlreiche nationale wie internationale Kontakte geschlossen.

 

Automatische Sprachmodelladaption für klinische Spracherkennung

Robert Herms und Prof. Dr. Maximilian Eibl von der Professur Medieninformatik entwickelten gemeinsam mit Daniel Richter und Jun.-Prof. Dr. Marc Ritter von der Juniorprofessur Media Computing eine Methode zu klinischen Spracherkennung und nahmen damit am CLEF (Conference and Labs of the Evaluation Forum) eHealth Evaluation Lab 2015 teil. Die Aufgabe bestand darin die Worterkennungsfehler beim Konvertieren von verbalen Patientenübergaben zwischen Pflegepersonal  zu Frei-Form-Textdokumenten zu minimieren. Das Forschungsteam verfolgte hier den Ansatz, dass jedes gesprochene medizinische Dokument seinen eigenen Kontext besitzt. Der erste Schritt der Methode beinhaltet die Transkription eines Dokuments mittels eines ASR (automatic speech recognition) Systems. Die Schlüsselwörter des Textes werden dabei extrahiert und über eine Webanfrage zu einem adaptierten Wörterbuch sowie einem Sprachmodell hinzugefügt. Im zweiten Schritt folgt das erneute Dechiffrieren des selben Textes – diesmal jedoch mit Hilfe des adaptierten Wörterbuchs und Sprachmodells.

Im Vergleich zur ursprünglichen Methode ist eine Minimierung der Worterkennungsfehler zu sehen, jedoch ist keine Verbesserung in Bezug auf die insgesamte Korrektheit der gesprochenen Dokumente sichtbar. Die Ergebnisse ihrer Arbeit wurden auf dem Conference and Labs of the Evaluation Forum in Toulouse (Frankreich), präsentiert.

Publikation: Herms, Robert; Richter, Daniel; Eibl, Max­i­m­il­ian & Rit­ter, Marc: Unsu­per­vised Lan­guage Model Adap­ta­tion using Utterance-based Web Search for Clin­i­cal Speech Recog­ni­tion. In: Work­ing Notes of Con­fer­ence and Labs of the Eval­u­a­tion Forum (CLEF), Toulouse, France, 08.-11.09.2015, 10 S. [Link]

 

TUCool – Optimierung von Klimaanlagen in Serverräumen

tucool

Schema zur erweiterten Wissensbasis von Hard- und Software der Klimatechnik [aus: Vodel et al: Adaptive Sensor Data Fusion for Efficient Climate Control Systems, S.6]

Gemeinsam mit PD Dr.-Ing Matthias Vodel und Prof. Dr. Wolfram Hardt, technischer Leiter des Universitätsrechenzentrums (URZ) der TU Chemnitz, entwickelte Jun.-Prof. Dr. Marc Ritter, von der Juniorprofessur Media Computing, ein Konzept zur effizienteren Kühlung von Serverräumen. Gemeinsam untersuchten sie Temperaturverläufe und Abhängigkeiten verschiedener Temperaturzonen, wobei sie die bereits verfügbare Hardware, wie Temperatursensoren, in diesen Prozess einbanden. Durch eine geschaffene gemeinsame Wissensbasis, die vorhandene Hard- und Software integriert, sind keine zusätzlichen Sensoren oder Techniken erforderlich. Erste Tests dieses Konzepts mit dem Namen „TU-Cool“ zeigen bereits einen hohen Grad der Optimierung sowie erhebliche Kosteneinsparungen durch den jeweiligen Kompromiss zwischen Energieversorgung und Kühlungskapazitäten. Die Ergebnisse der gemeinsamen Arbeit präsentierte PD Dr.-Ing. habil. Matthias Vodel im Rahmen des „Universal Access“ Workshops auf der „17th International Conference on Human-Computer Interaction“ (HCII).

Publikation: Vodel, Matthias & Rit­ter, Marc. Adap­tive Sen­sor Data Fusion for Effi­cient Cli­mate Con­trol Sys­tems. In: Uni­ver­sal Access in Human-Computer Inter­ac­tion. Access to Inter­ac­tion, Part II. Lec­ture Notes in Com­puter Sci­ence, Nr. 9176. Switzer­land : Springer Inter­na­tional Pub­lish­ing. HCI Inter­na­tional, Los Ange­les, CA, USA, 02.-07.08.2015, S.582–593. [Link]

 

Modellbasierte Tools zur Objekterkennung in Videomaterial

object
Videoannotations-Tool [aus: Ritter et.al. Rapid Model-Driven Anno­ta­tion and Eval­u­a­tion for Object Detec­tion in Videos]

Prof. Dr. Maximilian Eibl und Michael Storz von der Professur für Medieninformatik entwickelten gemeinsam mit Jun.-Prof. Dr. Marc Ritter und Manuel Heinzig von der Juniorprofessur Media Computing Tools zur Annotation und Evaluation zur Objekterkennung in Videomaterial. Dafür erweiterten sie einen modellbasierten Ansatz zur Annotation von Bildmaterialien auf Videos und testeten diesen im Vergleich mit anderen Tools, die derzeit auf im Forschungsbereich existieren. Ergebnis dieser Forschung sind u.a. zwei Komponenten zur schnellen Videoannotation und Evaluation. Die Videoannotationskomponente ermöglicht das Springen zu einzelnen Frames während in einer Liste und in der zugehörigen Timeline die annotierten Elemente angezeigt werden. Mit der Evaluationskomponente können die erkannten Objekte schließlich als falsch oder positiv bewertet werden. Die Entwicklung der beiden Komponenten dient dem Team von LocalizeIt und der Juniorprofessur außerdem als Vorbereitung auf die Teilnahme am diesjährigen Track „Instance Search“ innerhalb der vom amerikanischen Institut for Standards and Technologies jährlich veranstalteten wissenschaftlichen Evaluationskampagne TRECVid (Text Retrieval Evaluation Campaign on Videos).

Die Ergebnisse der gemeinsamen Forschungsarbeit wurden im Rahmen des „Universal Access Workshops“ auf der „17th International Conference on Human-Computer Interaction“ (HCII) in Los Angeles, USA vor.

Publikation: Rit­ter, Marc; Storz, Michael; Heinzig, Manuel & Eibl, Max­i­m­il­ian. Rapid Model-Driven Anno­ta­tion and Eval­u­a­tion for Object Detec­tion in Videos. In: Uni­ver­sal Access in Human-Computer Inter­ac­tion. Access to Inter­ac­tion, Part I. Lec­ture Notes in Com­puter Sci­ence, Nr. 9175. Switzer­land: Springer Inter­na­tional Pub­lish­ing. HCIInter­na­tional, Los Ange­les, CAUSA, 02.-07.08.2015, S.464–474. [Link]

 

Akustische Präsenzermittelung von Walen in Unterwasseraufnahmen

whale detection

Spektrogramm (li.) und Pseudo Wigner-Ville Distribution (re.) [Ou et al. (2015), JASA in Klinck & Ritter, DCLDE Workshop, Präsen­ta­tion, S.14]

Dr. Holger Klinck vom Cornell Lab of Ornithology der Cornell University in NY, USA und Jun.-Prof. Dr. Marc Ritter von der Juniorprofessur Media Computing der TU Chemnitz entwickelten eine automatisierte Methode zur Detektion verschiedener Walarten anhand von akustischen Unterwasseraufnahmen, die mit Hilfe von sogenannten Hydrophonen (Unterwassermikrofone) aufgenommen wurden. Der erste Schritt dieser Auswertung von Langzeitdaten ist die Berechnung einer Fourier-Transformation (FFT) der aufgezeichneten Daten (200 Hz Abtastrate). 5 Sekunden Audiodaten werden so in ein Spektrogramm mit der Auflösung 30 x 50 Pixel umgewandelt. Nach dem Entrauschen des Spektrogramms können die Graustufen schließlich als JPEG exportiert und als Trainings- und Testdaten mit Hilfe maschineller Komitee-basierter Lernverfahren der Boosting-Klasse weiterverarbeitet werden. Die Ergebnisse der gemeinsamen Forschungsarbeit stellte Dr. Holger Klinck im Rahmen des 7. internationalen Workshops für Detection, Classification, Localization, and Density Estimation (DCLDE) in San Diego, Kalifornien, USA vor.

Mit ihrer Forschungsarbeit erzielten die beiden Institute im diesjährigen Workshop die besten Resultate. Auf der Verarbeitung dieser Massendaten aufbauend, soll zukünftig ebenfalls die Präzision im maschinellen Lernen noch weiter erhöht werden.

Publikation: Klinck, Hol­ger & Rit­ter, Marc. Auto­mated iden­ti­fi­ca­tion of blue and fin whale vocal­iza­tions using an ensemble-based clas­si­fi­ca­tion sys­tem. In: The 7th Inter­na­tional DCLDE [Detec­tion, Clas­si­fi­ca­tion, Local­iza­tion, and Den­sity Esti­ma­tion] Work­shop 13.-16.07.2015, La Jolla, CA, USA, Präsen­ta­tion, 1. Platz bei der Detek­tion von Barten­walen im Nieder­fre­quenzbere­ich. [Link]

 

Verbesserung von Farbkalibrierverfahren für Projektoren

Measured color gamut of the Sanyo PDG-DWL 2500 projector with 64³ samples in the camera’s native color space [Quelle: Marcel Heinz; Guido Brunnett: Dense Sampling of 3D Color Transfer Functions Using HDR Photography]

Gemessene Farbskala des Sanyo PDG-DWL 2500 Projektors mit 64³ Samples im nativen Farbraum der Kamera [Quelle: Marcel Heinz; Guido Brunnett: Dense Sampling of 3D Color Transfer Functions Using HDR Photography]

LocalizeIT Mitarbeiter Dr. Marcel Heinz entwickelte in Zusammenarbeit mit Prof. Dr. Guido Brunnett von der Professur für Graphische Datenverarbeitung und Visualisierung der Fakultät für Informatik an der Technischen Universität Chemnitz eine verbesserte Methode zur Messung von 3D-Farbtransferfunktionen (engl. Color Transfer Functions – CTF) und präsentierten diese gemeinsam im Rahmen des IEEE CCD/PROCAMS 2015 Workshops auf der CVPR 2015 in Boston – der international hochrangigsten und größten Konferenz auf dem Gebiet der Muster- und Bilderkennung/Computer Vision.

Die entwickelte Methode beschleunigt die Bestimmung der CTFs, welche für die Kalibrierung von Mehrsegment-Projektionsanlagen hinsichtlich Farb- und Helligkeitswiedergabe unverzichtbar sind. Bisherige Methoden zur Messung von Projektorausgaben benötigen pro Messung mehrere Sekunden und weichen meist stark von einem idealen RGB-Modell ab. Dadurch sind diese Methoden in praxisrelevanten Zeiträumen weder verhältnismäßig noch qualitativ zufriedenstellend. Marcel Heinz und Guido Brunnett entwickelten unter Benutzung einer digitalen Spiegelreflexkamera eine Messmethode mit einer wesentlich höheren Sampledichte (64x64x64), die die Fehlerquote um ca. 30% reduziert. Dies ist eine wichtige Grundlage für die zu entwickelnden Kalibrierverfahren im Arbeitsbereich „Deviceless 3D-Steuerung“.

Publikation: Heinz, Mar­cel & Brun­nett, Guido. Dense Sam­pling of 3D Color Trans­fer Func­tions using HDR pho­tog­ra­phy. In: The IEEE Con­fer­ence on Com­puter Vision and Pat­tern Recog­ni­tion (CVPR) Work­shops, S.25–32. [Link]

 
 
Projektgeber

Gef M BMBF

Gef M BMBF

LocalizeIt wird durch das Bundesministerium für Bildung und Forschung BMBF und die BMBF Innovationsinitiative Unternehmen Region von August 2014 bis Juli 2019 gefördert und durch den Projektträger PtJ betreut.

Projektnehmer

Logo TU trans cropp

Logo MI

Logo MC TRANS

localizeIT ist ein Projekt der
Stiftungsjuniorprofessur Media Computing und der Professur Medieninformatik der Technischen Universität Chemnitz

Forschungspartner

Intenta Logo

3D MicroMag Logo

IBS Logo

Kontakt

Dr. rer. nat. Danny Kowerko
Tech­ni­sche Uni­ver­si­tät Chem­nitz
Fakul­tät für Infor­ma­tik
Juniorpro­fes­sur Medi­a Computing
Straße der Natio­nen 62
09111 Chemnitz