EmoSPeech-2024: Multimodal Speech-text Emotion Recognition in Spanish - Multimodal AER

Esta tarea introduce una nueva modalidad en el desafío de AER, incorporando el audio. El objetivo es integrar señales de texto y voz para determinar la emoción transmitida en cada fragmento, basándose en cinco de las seis emociones básicas de Ekman: ira, asco, miedo, alegría y tristeza, además de una emoción neutra.
Publicación
Pan et al. (2024). Overview of EmoSPeech at IberLEF 2024: Multimodal Speech-text Emotion Recognition in Spanish. Procesamiento del Lenguaje Natural, Revista, 73: 359-368.

Mejores resultados para la tarea

Sistema MacroF1 Ordenar ascendente
BSC–UPC 0.8669
THAU–UPM 0.8248
CogniCIC 0.7123
ITST 0.6876
UNED–UNIOVI 0.6709

Si has publicado un resultado mejor que los de la lista, envía un mensaje a odesia-comunicacion@lsi.uned.es indicando el resultado y el DOI del artículo, junto con una copia del mismo si no está publicado en abierto.