Audeering

Aus MARJORIE-WIKI
Wechseln zu: Navigation, Suche
Audeering GmbH
Logo
Rechtsform Gesellschaft mit beschränkter Haftung
Gründung 2012
Sitz Gilching, Deutschland
Leitung Björn Schuller (CEO),
Florian Eyben (CTO),
Dagmar Schuller (COO),
Martin Wöllmer (CIO)
Branche IT
Website www.audeering.com
Stand: November 2017 Vorlage:Infobox Unternehmen/Wartung/Stand 2017

Audeering GmbH (Eigenschreibweise: audEERING GmbH) ist ein deutsches Unternehmen, welches Software-Lösungen für Audio Signalverarbeitung anbietet[1]. Es wurde 2012 als Spin-Off der Machine Intelligence and Signal Processing Forschungsgruppe der Technischen Universität München (TUM) gegründet.

Übersicht[Bearbeiten]

Audeering ist spezialisert auf die automatische Analyse von Sprach- und Musiksignalen. Im Gegensatz zur automatischen Spracherkennung, welche den gesprochenen Inhalt aus einem Sprachsignal extrahiert, erkennt die durch Audeering entwickelte Software die Charakteristik eines Sprach- oder Musiksegments. Beispiele für Charakteristiken in der menschlichen Sprache sind Emotion[2], Alter, Geschlecht und Persönlichkeit des Sprechers, sowie Sprecherzustände wie Depression, Trunkenheit oder krankhafte Beeinträchtigungen der Stimme. Die von Audeering entwickelten Musik-Klassifikations-Technologien können zur Erkennung von Stimmung, Refrain Segmenten, Tonart, Akkorden, Tempo, Taktart, Tanzstil und Genre verwendet werden.

Die Technologie des Unternehmens basiert auf ihrem Sprachanalyse Toolkit openSMILE[3], einem quelloffenen Tool zur Audio Merkmalsextraktion und Mustererkennung, welches innerhalb der Affective Computing Forschungsgemeinde weit verbreitet ist und als Benchmark für viele Forschungswettbewerbe wie Interspeech ComParE[4], AVEC[5], MediaEval[6] und EmotiW[7] dient.

Technologie[Bearbeiten]

Audeering trägt zur Weiterentwicklung diverser grundlegender Signalverarbeitungs- und Mustererkennungstechnologien wie Voice Activity Detection, Sprachsignalverbesserung und Audio Merkmalsextraktion bei. Die von Audeering verwendeten Mustererkennungsalgorithmen basieren teilweise auf dem Long Short-Term Memory Prinzip [8], welches neuronalen Netzen erlaubt Langzeit-Kontext innerhalb von sequenziellen Daten auszunutzen. Das Unternehmen veröffentlichte mehrere Beiträge zum Thema störgeräuschrobuste Sprachanalyse in Zeitschriften und Konferenzbeiträgen[9][10].

Die Technologie von Audeering basiert auf Forschungsergebnissen aus diversen akademischen Projekten, z.B. die Projekte SEMAINE und ASC-Inclusion aus dem siebten Rahmenprogramm der Europäischen Union.

Kooperationen[Bearbeiten]

In Kooperation mit dem Swiss Center for Affective Sciences in Genf entwickelt Audeering einen Software-Prototypen zur Sprach-Emotionsanalyse. Dieser Prototyp verwendet eine Technologie, die sich nicht auf konventionelles maschinelles Lernen stützt sondern auf Erkenntnisse aus der Stimm-Physiologie und Psychologie. Dies erlaubt es, nicht nur Standard-Emotionskategorien sondern auch Unterkategorien von Emotionen wie Interesse, Zweifel, Langeweile, Bewunderung oder Faszination zu erkennen.

Audeering hat zur Umsetzung der App djay Pro beigetragen, welche von der Firma Algoriddim im Dezember 2015 veröffentlicht wurde.

Auszeichnungen[Bearbeiten]

Die von den Audeering-Gründern entwickelte Software openSMILE wurde 2010 im Kontext der ACM Multimedia Open Source Competition ausgezeichnet. Das Software-Tool wird in vielen wissenschaftlichen Publikationen zum Thema automatische Emotionserkennung eingesetzt. openSMILE und die Erweiterung openEAR wurden bis heute in über 1000 wissenschaftlichen Publikationen zitiert.

Weblinks[Bearbeiten]

Einzelnachweise[Bearbeiten]

  1. B. Schuller, „Speech Analysis in the Big Data Era,“ in Proc. of the 18th International Conference on Text, Speech and Dialogue, TSD 2015, Lecture Notes in Artificial Intelligence (LNAI), Springer, September 2015.
  2. B. Schuller, B. Vlasenko, F. Eyben, M. Wöllmer, A. Stuhlsatz, A. Wendemuth, G. Rigoll, „Cross-Corpus Acoustic Emotion Recognition: Variances and Strategies (Extended Abstract),“ in Proc. of ACII 2015, Xi'an, China, invited for the Special Session on Most Influential Articles in IEEE Transactions on Affective Computing.
  3. F. Eyben, M. Wöllmer, B. Schuller: „openSMILE - The Munich Versatile and Fast Open-Source Audio Feature Extractor“, In Proc. ACM Multimedia (MM), ACM, Florence, Italy, ACM, pp. 1459-1462, October 2010.
  4. B. Schuller, S. Steidl, A. Batliner, J. Hirschberg, J. K. Burgoon, A. Elkins, Y. Zhang, E. Coutinho: „The INTERSPEECH 2016 Computational Paralinguistics Challenge: Deception & Sincerity“, Proceedings INTERSPEECH 2016, ISCA, San Francisco, USA, 2016.
  5. F. Ringeval, B. Schuller, M. Valstar, R. Cowie, M. Pantic,“AVEC 2015 - The 5th International Audio/Visual Emotion Challenge and Workshop,” in Proceedings of the 23rd ACM International Conference on Multimedia, MM 2015, (Brisbane, Australia), ACM, October 2015.
  6. M. Eskevich, R. Aly, D. Racca, R. Ordelman, S. Chen, G. J. Jones, „The search and hyperlinking task at MediaEval 2014“.
  7. F. Ringeval, S. Amiriparian, F. Eyben, K. Scherer, B. Schuller, “Emotion Recognition in the Wild: Incorporating Voice and Lip Activity in Multimodal Decision-Level Fusion,” in Proceedings of the ICMI 2014 EmotiW – Emotion Recognition In The Wild Challenge and Workshop (EmotiW 2014), Satellite of the 16th ACM International Conference on Multimodal Interaction (ICMI 2014), (Istanbul, Turkey), pp. 473– 480, ACM, November 2014
  8. F. Eyben, F. Weninger, S. Squartini, B. Schuller, „Real-life voice activity detection with LSTM Recurrent Neural Networks and an application to Hollywood movies,“ in Proc. of 2013 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP), pp. 483-487, 26-31 May 2013.
  9. F. Eyben, B. Huber, E. Marchi, D. Schuller, B. Schuller, „Real-time Robust Recognition of Speakers’ Emotions and Characteristics on Mobile Platforms,“ in Proc. 6th biannual Conference on Affective Computing and Intelligent Interaction (ACII 2015), Xi'an, P. R. China, AAAC, IEEE, pp. 778-780, September 2015.
  10. F. Eyben, F. Weninger, B. Schuller, „Affect recognition in real-life acoustic conditions – A new perspective on feature selection,“ in Proc. of INTERSPEECH 2013, Lyon, France, pp. 2044-2048.
Info Sign.svg Dieser Wikipedia-Artikel wurde, gemäß GFDL, CC-by-sa mit der kompletten History importiert.