Tareas
Una tarea es una actividad propuesta con la finalidad de resolver un problema concreto de PLN, generalmente en el marco de una competición. A continuación se muestra información sobre tareas de PLN en Español desde 2013 hasta la actualidad.
FinancES: Financial targeted sentiment analysis IberLEF 2023
- NLP topic: análisis de sentimiento
- Dataset: FinancES 2023
- Foro: IberLEF
- Competición: FinancES: Financial Targeted Sentiment Analysis in Spanish
- Dominio: Finanzas
- Idioma(s): Español
- NLP topic: análisis de sentimiento
- Dataset: FinancES 2023
- Foro: IberLEF
- Competición: FinancES: Financial Targeted Sentiment Analysis in Spanish
- Dominio: Finanzas
- Idioma(s): Español
- NLP topic: análisis de sentimiento
- Dataset: Rest-Mex 2023 Sentiment
- Foro: IberLEF
- Competición: Rest-Mex 2023: Research on Sentiment Analysis Task for Mexican Tourist Texts
- Dominio: Turismo
- Idioma(s): Español
Stance detection IberLEF 2021
- NLP topic: análisis de sentimiento
- Dataset: VaxxStance-ES
- Foro: IberLEF
- Competición: Stance detection about vaccines
- Dominio: Salud
- Idioma(s): Español
Emotion classification IberLEF 2021
- NLP topic: análisis de sentimiento
- Dataset: EmoEventEs
- Foro: IberLEF
- Competición: EmoEvalEs: Emotion detection
- Dominio:
- Idioma(s): Español
Polarity classification IberLEF 2021
- NLP topic: análisis de sentimiento
- Dataset: RestMEX-SA
- Foro: IberLEF
- Competición: RestMEX: Recommendation System for Text Mexican Tourism
- Dominio: Turismo
- Idioma(s): Español (Mexico)
General polarity at three levels IberLEF 2020
- NLP topic: análisis de sentimiento
- Dataset: InterTASS 2020
- Foro: IberLEF
- Competición: Semantic Analysis at SEPLN (TASS)
- Dominio:
- Idioma(s): Español (Costa Rica), Español (Mexico), Español (Peru), Español (Spain), Español (Uruguay)
Emotion detection IberLEF 2020
- NLP topic: análisis de sentimiento
- Dataset: EmoEVENT
- Foro: IberLEF
- Competición: Semantic Analysis at SEPLN (TASS)
- Dominio:
- Idioma(s): Español
Complex word identification IberLEF 2020
- NLP topic: morfología
- Dataset: VYTEDU-CW
- Foro: IberLEF
- Competición: Análisis Léxico en SEPLN 2020
- Dominio: Educación
- Idioma(s): Español
Polarity classification IberLEF 2019
- NLP topic: análisis de sentimiento
- Dataset: InterTASS-SP, InterTASS-MEX, InterTASS-CR, InterTASS-PE, InterTASS-URU
- Foro: IberLEF
- Competición: TASS: Sentiment Analysis Task at SEPLN
- Dominio:
- Idioma(s): Español (Costa Rica), Español (Mexico), Español (Peru), Español (Spain), Español (Uruguay)
Polarity classification IberLEF 2019
- NLP topic: análisis de sentimiento
- Dataset: NEGES
- Foro: IberLEF
- Competición: NEGES 2019 Task: Negation in Spanish
- Dominio:
- Idioma(s): Español
Polarity classification IberLEF 2019
- NLP topic: análisis de sentimiento
- Dataset: InterTASS-SP, InterTASS-MEX, InterTASS-CR, InterTASS-PE, InterTASS-URU
- Foro: IberLEF
- Competición: TASS: Sentiment Analysis Task at SEPLN
- Dominio:
- Idioma(s): Español (Costa Rica), Español (Mexico), Español (Peru), Español (Spain), Español (Uruguay)
Polarity classification IberLEF 2019
- NLP topic: análisis de sentimiento
- Dataset: InterTASS-SP, InterTASS-MEX, InterTASS-CR, InterTASS-PE, InterTASS-URU
- Foro: IberLEF
- Competición: TASS: Sentiment Analysis Task at SEPLN
- Dominio:
- Idioma(s): Español (Costa Rica), Español (Mexico), Español (Peru), Español (Spain), Español (Uruguay)
Polarity classification IberLEF 2019
- NLP topic: análisis de sentimiento
- Dataset: InterTASS-SP, InterTASS-MEX, InterTASS-CR, InterTASS-PE, InterTASS-URU
- Foro: IberLEF
- Competición: TASS: Sentiment Analysis Task at SEPLN
- Dominio:
- Idioma(s): Español (Costa Rica), Español (Mexico), Español (Peru), Español (Spain), Español (Uruguay)
Polarity classification IberLEF 2019
- NLP topic: análisis de sentimiento
- Dataset: InterTASS-SP, InterTASS-MEX, InterTASS-CR, InterTASS-PE, InterTASS-URU
- Foro: IberLEF
- Competición: TASS: Sentiment Analysis Task at SEPLN
- Dominio:
- Idioma(s): Español (Costa Rica), Español (Mexico), Español (Peru), Español (Spain), Español (Uruguay)
Si has publicado un resultado mejor que los de la lista, envía un mensaje a odesia-comunicacion@lsi.uned.es indicando el resultado y el DOI del artículo, junto con una copia del mismo si no está publicado en abierto.