2018-12-12 | Anmelden
 
 

Autoren-Archiv

Artikel von Evelyn Lorenz

Grüße zum neuen Jahr 2016

Voll­ge­tankt mit neuer Energie und Taten­drang melden wir, das Team der Inno­Pro­file-Trans­fer-Ini­tia­tive local­izeIT, uns im neuen Jahr zurück. Denn wie Johann Wolf­gang von Goethe schon sagte:

Wenn ein Jahr nicht leer ver­laufen soll, muss man beizeit­en anfan­gen.”

In diesem Sinne wün­schen wir allen inter­essierten Lesern und Part­nern der Ini­tia­tive ein gesun­des und erfol­gre­iches Jahr 2016!

Ihr local­izeIT-Team

 

Forschungsabkommen zwischen dem Cornell Lab of Ornithology und der Stiftungsjuniorprofessur

Nach dem 1. Platz bei der Eval­u­a­tion­skam­pagne DCLDE im Juli 2015 bei der Detek­tion von Barten­walen ver­tiefte Jun.-Prof. Dr. Marc Rit­ter bei seinem Forschungsaufen­thalt am Cor­nell Lab of Ornithol­o­gy, Itha­ca, USA die gegen­seit­i­gen Beziehun­gen zur Forschung auf dem Gebi­et der robusten Lokalisierung von bioakustis­chen Sig­nalen im Out­door­bere­ich. Zukün­ftig ist vor allem die Inte­gra­tion von Stu­den­ten und Mitar­beit­ern der Ini­tia­tive in gemein­same Aus­tausch­pro­gramme auf inter­na­tionalem Niveau angestrebt.

Bei dem Forschungsaufen­thalt im Novem­ber kon­nte zudem ein automa­tis­ches in Cor­nell entwick­eltes Livede­tek­tion­ssys­tem in Betrieb genom­men wer­den, das zum Schutz wildleben­der Tier­arten einge­set­zt wer­den soll. Dazu platzierte das Forscherteam um Prof. Dr. Hol­ger Klinck mit u.a. Mikro­fon und Funkan­tenne aus­ges­tat­tete Box­en im angren­zen­den Wal­dob­ser­va­to­ri­um. Mit Hil­fe der aktuellen Forschun­gen im Pro­jekt local­izeIt wird zukün­ftig ver­sucht wer­den, bish­erige Ken­nt­nisse zur Lokali­sa­tion akustis­ch­er Ereignisse in den Out­door­bere­ich zu über­tra­gen. Detek­toren für diese Zwecke existieren zwar bere­its, jedoch gilt es deren Detek­tion­srate zu opti­mieren und die Quan­tität von Falschalar­men zu reduzieren.

Mit dem Ziel die inter­na­tionale Kol­lab­o­ra­tion zur bewussten Detek­tion von bioakustis­chen Sig­nalen im Out­door­bere­ich zu ver­tiefen und den stu­den­tis­chen Aus­tausch anzure­gen, befind­en sich bere­its weit­ere gemein­same Pro­jek­te mit dem Cor­nell Lab of Ornithol­o­gy gegen­wär­tig in der Antragsphase.

 

RapidMiner — Einladung zum Workshop

Die Junior­pro­fes­sur Media Com­put­ing ver­anstal­tet eine Work­shop-Rei­he zum The­ma Data-Min­ing-Tools. In der näch­sten Ver­anstal­tung am 09.12.2015 wird von 14:00–16:00 das Soft­warew­erkzeug “Rapid­Min­er” vorgestellt. Der Work­shop wird von Her­rn Maik Ben­ndorf (M.Sc.) durchge­führt, der zur Zeit an der Fakultät Infor­matik der TU Chem­nitz pro­moviert und als wis­senschaftlich­er Mitar­beit­er an der Hochschule Mit­twei­da tätig ist.

Inhaltlich wer­den fol­gende The­men fokussiert:

  • Instal­la­tion & Set­up
  • Ein­führung in Grund­funk­tion­al­ität sowie Spe­icherver­wal­tung
  • Import von Dat­en
  • Ler­nen & Klas­si­fika­tion
  • Anwen­dung und Vali­dierung
  • Plu­g­ins und Erweiterungsmöglichkeit­en
  • FAQ

Der Work­shop ist frei zugänglich und wen­det sich ins­beson­dere an Inter­essierte inner­halb der Inno­Pro­file-Ini­tia­tive local­izeIT und der beteiligten Insti­tu­tio­nen. Ver­anstal­tung­sort ist die Tech­nis­che Uni­ver­sität Chem­nitz, Straße der Natio­nen 62 in 09111 Chem­nitz. Auf­grund der begren­zten Teil­nehmerzahl ist eine Anmel­dung bei Frau Eve­lyn Lorenz (evelyn.lorenz@informatik.tu-chemnitz.de) bis zum 06.12.2015 erforder­lich. Raum­num­mer und Anfahrts­beschrei­bung wer­den nach erfol­gter Anmel­dung per E-Mail über­mit­telt.

 

Erneute Teilnahme am TRECVID Instance Search 2015 — Mit neuen Methoden näher ans Ziel

Die inter­na­tionale wis­senschaftliche Eval­u­a­tion­skam­pagne TRECVID ist eine etabilierte Serie von Work­shops, die sich auf die inhalts­basierte Infor­ma­tion­s­gewin­nung und Auswer­tung und dig­i­taler Videos konzen­tri­ert. Jedes Jahr stellen sich Teil­nehmer ein­er neuen real­ität­sna­hen Auf­gabe, die Forsch­er divers­er inter­na­tionaler Insti­tute in ein­er Art Wet­tbe­werb lösen. Die TRECVID-erfahre­nen Forsch­er der Junior­pro­fes­sur Media Com­put­ing und der Pro­fes­sur Medi­en­in­for­matik der Tech­nis­chen Uni­ver­sität Chem­nitz nah­men gemein­sam mit Prof. Dr. Dr. Gisela Susanne Bahr vom Flori­da Insti­tute of Tech­nol­o­gy (FIT) zum zweit­en Mal teil und waren dieses Jahr auch im Bere­ich der “Deep Learn­ing Strate­gies” aktiv.

Zudem wur­den neue Meth­o­d­en bzw. deren Verknüp­fun­gen im Task Instance Search angewen­det, um die geforderten Bild­in­halte in vier Durchgän­gen, davon ein inter­ak­tiv­er und drei automa­tis­che, kor­rekt zu erken­nen. So wur­den die Meth­o­d­en CNN (Con­vo­lu­tion­al Neur­al Net­work), die eine Art kün­stlich­es neu­rales Net­zw­erk erstellen, bei dem die “Neu­ro­nen” auf sich über­lap­pende Bere­iche reagieren, und SIFT (Scale Invari­ant Fea­ture Trans­form), bei dem die Merk­mals­beschrei­bun­gen invari­ant gegenüber z.B. Rota­tion, Skalierung, Beleuch­tungsvari­a­tion etc. sind, mit einem vor­angestell­ten Sequence Clus­ter­ing (SC) kom­biniert. Die Forsch­er stell­ten fest, dass die Meth­o­d­en CNN und SIFT in mehr als der Hälfte der Fälle der geforderten Suchan­fra­gen erfol­gre­ich waren, wobei SIFT beson­ders gut bei struk­turi­erten Objek­ten mit schar­fen Kan­ten funk­tion­ierte. Zusät­zlich erzielte das Sequence Clus­ter­ing (SC) als Vorver­ar­beitung­sprozess eine merk­liche Verbesserung der Detek­tion­sergeb­nisse, sodass die Forsch­er ins­ge­samt mehrere ver­schiedene Poten­tiale zur Opti­mierung der Objek­terken­nung aufdeck­ten.

Die Ergeb­nisse wur­den vom 16.–18. Novem­ber 2015 beim Nation­al Insti­tute of Stan­dards and Tech­nol­o­gy, Mary­land, USA von Junior­pro­fes­sor Dr. Marc Rit­ter präsen­tiert.

Pub­lika­tion: Rit­ter, Marc; Rick­ert, Markus; Jutu­ru Chenchu, Lokesh; Kahl, Ste­fan; Herms, Robert; Hus­sein, Hus­sein; Heinzig, Manuel, Man­they, Robert; Richter, Daniel; Bahr, Gisela Susanne & Eibl, Max­i­m­il­ian: Tech­nis­che Uni­ver­sität Chem­nitz at TRECVID Instance Search 2015. In: TRECVID Work­shop, 16.–18.11.2015, Gaithers­burg, Mary­land, USA, 12 S. [Link@RG][Link@NIST]

 

 

Juniorprofessur Media Computing an der Herbstschule für Information Retrieval und Information Foraging

Junior­pro­fes­sor Dr. Marc Rit­ter präsen­tierte vom 19. bis 25. Sep­tem­ber 2015 die aktuellen Forschung­spro­jek­te sein­er Stiftung­spro­fes­sur Media Com­put­ing auf der Herb­stschule für Infor­ma­tion Retrieval und Infor­ma­tion For­ag­ing in Kath­len­burg, ein­er Ver­anstal­tung der Uni­ver­sität Hildesheim unter der Leitung von Prof. Thomas Man­del und Dr. Ben Heuwig. Die Ver­anstal­tung diente als Forum für inter­na­tionale Stu­den­ten, Pro­moven­den und Forsch­ern aus zahlre­ichen Natio­nen, um sich über aktuelle Forschun­gen und Prob­leme auszu­tauschen. Dabei wurde beson­ders auf die Vielfalt der Forschungs­the­men unter den Teil­nehmern und Vor­tra­gen­den Wert gelegt, deren Schw­er­punk­te auf der Ver­hal­tens­analyse von Nutzern bei Suchan­fra­gen im Inter­net sowie der effek­tiv­en Nutzung gewonnen­er Infor­ma­tio­nen lagen.

Ein “Interkul­tureller Work­shop” verbesserte das Ver­ständ­nis zwis­chen den ver­schiede­nen Kul­turen der Teil­nehmer untere­inan­der und beleuchtete  Prob­leme beim koop­er­a­tiv­en Umgang mit anderen Eth­nien. In den fol­gen­den Tagen präsen­tierten die inter­na­tionalen Forsch­er ihre aktuellen Pro­jek­te — darunter auch Junior­pro­fes­sor Dr. Marc Rit­ter mit seinem Work­shop zum The­ma “Mul­ti­me­dia Infor­ma­tion Retrieval”. Dabei ging er auf den aktuellen Forschungs­stand der The­menge­bi­ete “Bilderken­nung” und “Intel­li­gente Video­analyse mit sehr großen Daten­men­gen” ein, die Bestandteil in der audio­vi­suellen Ver­ar­beitung der Inno­Pro­file-Trans­fer Ini­tia­tive Local­izeIt sind. Durch diesen inter­na­tionalen Aus­tausch wur­den zahlre­iche nationale wie inter­na­tionale Kon­tak­te geschlossen.

 

Automatische Sprachmodelladaption für klinische Spracherkennung

Robert Herms und Prof. Dr. Max­i­m­il­ian Eibl von der Pro­fes­sur Medi­en­in­for­matik entwick­el­ten gemein­sam mit Daniel Richter und Jun.-Prof. Dr. Marc Rit­ter von der Junior­pro­fes­sur Media Com­put­ing eine Meth­ode zu klin­is­chen Spracherken­nung und nah­men damit am CLEF (Con­fer­ence and Labs of the Eval­u­a­tion Forum) eHealth Eval­u­a­tion Lab 2015 teil. Die Auf­gabe bestand darin die Worterken­nungs­fehler beim Kon­vertieren von ver­balen Patien­tenüber­gaben zwis­chen Pflegeper­son­al  zu Frei-Form-Textdoku­menten zu min­imieren. Das Forschung­steam ver­fol­gte hier den Ansatz, dass jedes gesproch­ene medi­zinis­che Doku­ment seinen eige­nen Kon­text besitzt. Der erste Schritt der Meth­ode bein­hal­tet die Tran­skrip­tion eines Doku­ments mit­tels eines ASR (auto­mat­ic speech recog­ni­tion) Sys­tems. Die Schlüs­sel­wörter des Textes wer­den dabei extrahiert und über eine Weban­frage zu einem adap­tierten Wörter­buch sowie einem Sprach­mod­ell hinzuge­fügt. Im zweit­en Schritt fol­gt das erneute Dechiffrieren des sel­ben Textes — dies­mal jedoch mit Hil­fe des adap­tierten Wörter­buchs und Sprach­mod­ells.

Im Ver­gle­ich zur ursprünglichen Meth­ode ist eine Min­imierung der Worterken­nungs­fehler zu sehen, jedoch ist keine Verbesserung in Bezug auf die ins­ge­samte Kor­rek­theit der gesproch­enen Doku­mente sicht­bar. Die Ergeb­nisse ihrer Arbeit wur­den auf dem Con­fer­ence and Labs of the Eval­u­a­tion Forum in Toulouse (Frankre­ich), präsen­tiert.

Pub­lika­tion: Herms, Robert; Richter, Daniel; Eibl, Max­i­m­il­ian & Rit­ter, Marc: Unsu­per­vised Lan­guage Mod­el Adap­ta­tion using Utter­ance-based Web Search for Clin­i­cal Speech Recog­ni­tion. In: Work­ing Notes of Con­fer­ence and Labs of the Eval­u­a­tion Forum (CLEF), Toulouse, France, 08.–11.09.2015, 10 S. [Link]

 

TUCool — Optimierung von Klimaanlagen in Serverräumen

tucool

Schema zur erweit­erten Wis­sens­ba­sis von Hard- und Soft­ware der Kli­mat­e­ch­nik [aus: Vodel et al: Adap­tive Sen­sor Data Fusion for Effi­cient Cli­mate Con­trol Sys­tems, S.6]

Gemein­sam mit PD Dr.-Ing Matthias Vodel und Prof. Dr. Wol­fram Hardt, tech­nis­ch­er Leit­er des Uni­ver­sität­srechen­zen­trums (URZ) der TU Chem­nitz, entwick­elte Jun.-Prof. Dr. Marc Rit­ter, von der Junior­pro­fes­sur Media Com­put­ing, ein Konzept zur effizien­teren Küh­lung von Server­räu­men. Gemein­sam unter­sucht­en sie Tem­per­aturver­läufe und Abhängigkeit­en ver­schieden­er Tem­per­atur­zo­nen, wobei sie die bere­its ver­füg­bare Hard­ware, wie Tem­per­atursen­soren, in diesen Prozess ein­ban­den. Durch eine geschaf­fene gemein­same Wis­sens­ba­sis, die vorhan­dene Hard- und Soft­ware inte­gri­ert, sind keine zusät­zlichen Sen­soren oder Tech­niken erforder­lich. Erste Tests dieses Konzepts mit dem Namen “TU-Cool” zeigen bere­its einen hohen Grad der Opti­mierung sowie erhe­bliche Kosteneinsparun­gen durch den jew­eili­gen Kom­pro­miss zwis­chen Energiev­er­sorgung und Küh­lungska­paz­itäten. Die Ergeb­nisse der gemein­samen Arbeit präsen­tierte PD Dr.-Ing. habil. Matthias Vodel im Rah­men des “Uni­ver­sal Access” Work­shops auf der “17th Inter­na­tion­al Con­fer­ence on Human-Com­put­er Inter­ac­tion” (HCII).

Pub­lika­tion: Vodel, Matthias & Rit­ter, Marc. Adap­tive Sen­sor Data Fusion for Effi­cient Cli­mate Con­trol Sys­tems. In: Uni­ver­sal Access in Human-Com­put­er Inter­ac­tion. Access to Inter­ac­tion, Part II. Lec­ture Notes in Com­puter Sci­ence, Nr. 9176. Switzer­land : Springer Inter­na­tional Pub­lish­ing. HCI Inter­na­tional, Los Ange­les, CAUSA, 02.–07.08.2015, S.582–593. [Link]

 

Modellbasierte Tools zur Objekterkennung in Videomaterial

object
Videoan­no­ta­tions-Tool [aus: Rit­ter et.al. Rapid Mod­el-Dri­ven Anno­ta­tion and Eval­u­a­tion for Object Detec­tion in Videos]

Prof. Dr. Max­i­m­il­ian Eibl und Michael Storz von der Pro­fes­sur für Medi­en­in­for­matik entwick­el­ten gemein­sam mit Jun.-Prof. Dr. Marc Rit­ter und Manuel Heinzig von der Junior­pro­fes­sur Media Com­put­ing Tools zur Anno­ta­tion und Eval­u­a­tion zur Objek­terken­nung in Video­ma­te­r­i­al. Dafür erweit­erten sie einen mod­ell­basierten Ansatz zur Anno­ta­tion von Bild­ma­te­ri­alien auf Videos und testeten diesen im Ver­gle­ich mit anderen Tools, die derzeit auf im Forschungs­bere­ich existieren. Ergeb­nis dieser Forschung sind u.a. zwei Kom­po­nen­ten zur schnellen Videoan­no­ta­tion und Eval­u­a­tion. Die Videoan­no­ta­tion­skom­po­nente ermöglicht das Sprin­gen zu einzel­nen Frames während in ein­er Liste und in der zuge­höri­gen Time­line die annotierten Ele­mente angezeigt wer­den. Mit der Eval­u­a­tion­skom­po­nente kön­nen die erkan­nten Objek­te schließlich als falsch oder pos­i­tiv bew­ertet wer­den. Die Entwick­lung der bei­den Kom­po­nen­ten dient dem Team von Local­izeIt und der Junior­pro­fes­sur außer­dem als Vor­bere­itung auf die Teil­nahme am diesjähri­gen Track “Instance Search” inner­halb der vom amerikanis­chen Insti­tut for Stan­dards and Tech­nolo­gies jährlich ver­anstal­teten wis­senschaftlichen Eval­u­a­tion­skam­pagne TRECVid (Text Retrieval Eval­u­a­tion Cam­paign on Videos).

Die Ergeb­nisse der gemein­samen Forschungsar­beit wur­den im Rah­men des “Uni­ver­sal Access Work­shops” auf der “17th Inter­na­tion­al Con­fer­ence on Human-Com­put­er Inter­ac­tion” (HCII) in Los Ange­les, USA vor.

Pub­lika­tion: Rit­ter, Marc; Storz, Michael; Heinzig, Manuel & Eibl, Max­i­m­il­ian. Rapid Mod­el-Dri­ven Anno­ta­tion and Eval­u­a­tion for Object Detec­tion in Videos. In: Uni­ver­sal Access in Human-Com­put­er Inter­ac­tion. Access to Inter­ac­tion, Part I. Lec­ture Notes in Com­puter Sci­ence, Nr. 9175. Switzer­land: Springer Inter­na­tional Pub­lish­ing. HCIInter­na­tional, Los Ange­les, CAUSA, 02.–07.08.2015, S.464–474. [Link]

 

Akustische Präsenzermittelung von Walen in Unterwasseraufnahmen

whale detection

Spek­tro­gramm (li.) und Pseu­do Wign­er-Ville Dis­tri­b­u­tion (re.) [Ou et al. (2015), JASA in Klinck & Rit­ter, DCLDE Work­shop, Präsen­ta­tion, S.14]

Dr. Hol­ger Klinck vom Cor­nell Lab of Ornithol­o­gy der Cor­nell Uni­ver­si­ty in NY, USA und Jun.-Prof. Dr. Marc Rit­ter von der Junior­pro­fes­sur Media Com­put­ing der TU Chem­nitz entwick­el­ten eine automa­tisierte Meth­ode zur Detek­tion ver­schieden­er Walarten anhand von akustis­chen Unter­wasser­auf­nah­men, die mit Hil­fe von soge­nan­nten Hydropho­nen (Unter­wasser­mikro­fone) aufgenom­men wur­den. Der erste Schritt dieser Auswer­tung von Langzeit­dat­en ist die Berech­nung ein­er Fouri­er-Trans­for­ma­tion (FFT) der aufgeze­ich­neten Dat­en (200 Hz Abtas­trate). 5 Sekun­den Audio­dat­en wer­den so in ein Spek­tro­gramm mit der Auflö­sung 30 x 50 Pix­el umge­wan­delt. Nach dem Entrauschen des Spek­tro­gramms kön­nen die Graustufen schließlich als JPEG exportiert und als Train­ings- und Test­dat­en mit Hil­fe maschineller Komi­tee-basiert­er Lern­ver­fahren der Boost­ing-Klasse weit­er­ver­ar­beit­et wer­den. Die Ergeb­nisse der gemein­samen Forschungsar­beit stellte Dr. Hol­ger Klinck im Rah­men des 7. inter­na­tionalen Work­shops für Detec­tion, Clas­si­fi­ca­tion, Local­iza­tion, and Den­si­ty Esti­ma­tion (DCLDE) in San Diego, Kali­fornien, USA vor.

Mit ihrer Forschungsar­beit erziel­ten die bei­den Insti­tute im diesjähri­gen Work­shop die besten Resul­tate. Auf der Ver­ar­beitung dieser Massendat­en auf­bauend, soll zukün­ftig eben­falls die Präzi­sion im maschinellen Ler­nen noch weit­er erhöht wer­den.

Pub­lika­tion: Klinck, Hol­ger & Rit­ter, Marc. Auto­mated iden­ti­fi­ca­tion of blue and fin whale vocal­iza­tions using an ensem­ble-based clas­si­fi­ca­tion sys­tem. In: The 7th Inter­na­tional DCLDE [Detec­tion, Clas­si­fi­ca­tion, Local­iza­tion, and Den­sity Esti­ma­tion] Work­shop 13.–16.07.2015, La Jol­la, CAUSA, Präsen­ta­tion, 1. Platz bei der Detek­tion von Barten­walen im Nieder­fre­quenzbere­ich. [Link]

 

Verbesserung von Farbkalibrierverfahren für Projektoren

Measured color gamut of the Sanyo PDG-DWL 2500 projector with 64³ samples in the camera’s native color space [Quelle: Marcel Heinz; Guido Brunnett: Dense Sampling of 3D Color Transfer Functions Using HDR Photography]

Gemessene Farb­skala des Sanyo PDG-DWL 2500 Pro­jek­tors mit 64³ Sam­ples im nativ­en Far­braum der Kam­era [Quelle: Mar­cel Heinz; Gui­do Brun­nett: Dense Sam­pling of 3D Col­or Trans­fer Func­tions Using HDR Pho­tog­ra­phy]

Local­izeIT Mitar­beit­er Dr. Mar­cel Heinz entwick­elte in Zusam­me­nar­beit mit Prof. Dr. Gui­do Brun­nett von der Pro­fes­sur für Graphis­che Daten­ver­ar­beitung und Visu­al­isierung der Fakultät für Infor­matik an der Tech­nis­chen Uni­ver­sität Chem­nitz eine verbesserte Meth­ode zur Mes­sung von 3D-Farb­trans­fer­funk­tio­nen (engl. Col­or Trans­fer Func­tions — CTF) und präsen­tierten diese gemein­sam im Rah­men des IEEE CCD/PROCAMS 2015 Work­shops auf der CVPR 2015 in Boston — der inter­na­tion­al hochrangig­sten und größten Kon­ferenz auf dem Gebi­et der Muster- und Bilderkennung/Computer Vision.

Die entwick­elte Meth­ode beschle­u­nigt die Bes­tim­mung der CTFs, welche für die Kalib­rierung von Mehrseg­ment-Pro­jek­tion­san­la­gen hin­sichtlich Farb- und Hel­ligkeitswieder­gabe unverzicht­bar sind. Bish­erige Meth­o­d­en zur Mes­sung von Pro­jek­toraus­gaben benöti­gen pro Mes­sung mehrere Sekun­den und weichen meist stark von einem ide­alen RGB-Mod­ell ab. Dadurch sind diese Meth­o­d­en in prax­is­rel­e­van­ten Zeiträu­men wed­er ver­hält­nis­mäßig noch qual­i­ta­tiv zufrieden­stel­lend. Mar­cel Heinz und Gui­do Brun­nett entwick­el­ten unter Benutzung ein­er dig­i­tal­en Spiegel­re­flexkam­era eine Mess­meth­ode mit ein­er wesentlich höheren Sam­pledichte (64x64x64), die die Fehlerquote um ca. 30% reduziert. Dies ist eine wichtige Grund­lage für die zu entwick­el­nden Kalib­ri­erver­fahren im Arbeits­bere­ich “Device­less 3D-Steuerung”.

Pub­lika­tion: Heinz, Mar­cel & Brun­nett, Gui­do. Dense Sam­pling of 3D Col­or Trans­fer Func­tions using HDR pho­tog­ra­phy. In: The IEEE Con­fer­ence on Com­puter Vision and Pat­tern Recog­ni­tion (CVPR) Work­shops, S.25–32. [Link]

 
 
Projektgeber

Gef M BMBF

Gef M BMBF

LocalizeIt wird durch das Bundesministerium für Bildung und Forschung BMBF und die BMBF Innovationsinitiative Unternehmen Region von August 2014 bis Juli 2019 gefördert und durch den Projektträger PtJ betreut.

Projektnehmer

Logo TU trans cropp

Logo MI

Logo MC TRANS

localizeIT ist ein Projekt der
Stiftungsjuniorprofessur Media Computing und der Professur Medieninformatik der Technischen Universität Chemnitz

Forschungspartner

Intenta Logo

3D MicroMag Logo

IBS Logo

Kontakt

Dr. rer. nat. Danny Kowerko
Tech­ni­sche Uni­ver­si­tät Chem­nitz
Fakul­tät für Infor­ma­tik
Juniorpro­fes­sur Medi­a Computing
Straße der Natio­nen 62
09111 Chemnitz