Robert Herms und Prof. Dr. Maximilian Eibl von der Professur Medieninformatik entwickelten gemeinsam mit Daniel Richter und Jun.-Prof. Dr. Marc Ritter von der Juniorprofessur Media Computing eine Methode zu klinischen Spracherkennung und nahmen damit am CLEF (Conference and Labs of the Evaluation Forum) eHealth Evaluation Lab 2015 teil. Die Aufgabe bestand darin die Worterkennungsfehler beim Konvertieren von verbalen Patientenübergaben zwischen Pflegepersonal zu Frei-Form-Textdokumenten zu minimieren. Das Forschungsteam verfolgte hier den Ansatz, dass jedes gesprochene medizinische Dokument seinen eigenen Kontext besitzt. Der erste Schritt der Methode beinhaltet die Transkription eines Dokuments mittels eines ASR (automatic speech recognition) Systems. Die Schlüsselwörter des Textes werden dabei extrahiert und über eine Webanfrage zu einem adaptierten Wörterbuch sowie einem Sprachmodell hinzugefügt. Im zweiten Schritt folgt das erneute Dechiffrieren des selben Textes — diesmal jedoch mit Hilfe des adaptierten Wörterbuchs und Sprachmodells.
Im Vergleich zur ursprünglichen Methode ist eine Minimierung der Worterkennungsfehler zu sehen, jedoch ist keine Verbesserung in Bezug auf die insgesamte Korrektheit der gesprochenen Dokumente sichtbar. Die Ergebnisse ihrer Arbeit wurden auf dem Conference and Labs of the Evaluation Forum in Toulouse (Frankreich), präsentiert.
Publikation: Herms, Robert; Richter, Daniel; Eibl, Maximilian & Ritter, Marc: Unsupervised Language Model Adaptation using Utterance-based Web Search for Clinical Speech Recognition. In: Working Notes of Conference and Labs of the Evaluation Forum (CLEF), Toulouse, France, 08.–11.09.2015, 10 S. [Link]
Kommentare