Tareas
Una tarea es una actividad propuesta con la finalidad de resolver un problema concreto de PLN, generalmente en el marco de una competición. A continuación se muestra información sobre tareas de PLN en Español desde 2013 hasta la actualidad.
- NLP topic: análisis de sentimiento
- Dataset: FinancES 2023
- Foro: IberLEF
- Competición: FinancES: Financial Targeted Sentiment Analysis in Spanish
- Dominio: Finanzas
- Idioma(s): Español
- NLP topic: análisis de sentimiento
- Dataset: Rest-Mex 2023 Sentiment
- Foro: IberLEF
- Competición: Rest-Mex 2023: Research on Sentiment Analysis Task for Mexican Tourist Texts
- Dominio: Turismo
- Idioma(s): Español
- NLP topic: detección de lenguas
- Dataset: GUA-SPA: Guarani Spanish corpus
- Foro: IberLEF
- Competición: GUA-SPA: Guarani-Spanish Code-Switching Analysis
- Dominio: Noticias
- Idioma(s): Español
FinancES: Financial targeted sentiment analysis IberLEF 2023
- NLP topic: análisis de sentimiento
- Dataset: FinancES 2023
- Foro: IberLEF
- Competición: FinancES: Financial Targeted Sentiment Analysis in Spanish
- Dominio: Finanzas
- Idioma(s): Español
Emotion classification IberLEF 2021
- NLP topic: análisis de sentimiento
- Dataset: EmoEventEs
- Foro: IberLEF
- Competición: EmoEvalEs: Emotion detection
- Dominio:
- Idioma(s): Español
Polarity classification IberLEF 2021
- NLP topic: análisis de sentimiento
- Dataset: RestMEX-SA
- Foro: IberLEF
- Competición: RestMEX: Recommendation System for Text Mexican Tourism
- Dominio: Turismo
- Idioma(s): Español (Mexico)
Stance detection IberLEF 2021
- NLP topic: análisis de sentimiento
- Dataset: VaxxStance-ES
- Foro: IberLEF
- Competición: Stance detection about vaccines
- Dominio: Salud
- Idioma(s): Español
General polarity at three levels IberLEF 2020
- NLP topic: análisis de sentimiento
- Dataset: InterTASS 2020
- Foro: IberLEF
- Competición: Semantic Analysis at SEPLN (TASS)
- Dominio:
- Idioma(s): Español (Costa Rica), Español (Mexico), Español (Peru), Español (Spain), Español (Uruguay)
Emotion detection IberLEF 2020
- NLP topic: análisis de sentimiento
- Dataset: EmoEVENT
- Foro: IberLEF
- Competición: Semantic Analysis at SEPLN (TASS)
- Dominio:
- Idioma(s): Español
Polarity classification IberLEF 2019
- NLP topic: análisis de sentimiento
- Dataset: InterTASS-SP, InterTASS-MEX, InterTASS-CR, InterTASS-PE, InterTASS-URU
- Foro: IberLEF
- Competición: TASS: Sentiment Analysis Task at SEPLN
- Dominio:
- Idioma(s): Español (Costa Rica), Español (Mexico), Español (Peru), Español (Spain), Español (Uruguay)
Polarity classification IberLEF 2019
- NLP topic: análisis de sentimiento
- Dataset: InterTASS-SP, InterTASS-MEX, InterTASS-CR, InterTASS-PE, InterTASS-URU
- Foro: IberLEF
- Competición: TASS: Sentiment Analysis Task at SEPLN
- Dominio:
- Idioma(s): Español (Costa Rica), Español (Mexico), Español (Peru), Español (Spain), Español (Uruguay)
Polarity classification IberLEF 2019
- NLP topic: análisis de sentimiento
- Dataset: InterTASS-SP, InterTASS-MEX, InterTASS-CR, InterTASS-PE, InterTASS-URU
- Foro: IberLEF
- Competición: TASS: Sentiment Analysis Task at SEPLN
- Dominio:
- Idioma(s): Español (Costa Rica), Español (Mexico), Español (Peru), Español (Spain), Español (Uruguay)
Polarity classification IberLEF 2019
- NLP topic: análisis de sentimiento
- Dataset: InterTASS-SP, InterTASS-MEX, InterTASS-CR, InterTASS-PE, InterTASS-URU
- Foro: IberLEF
- Competición: TASS: Sentiment Analysis Task at SEPLN
- Dominio:
- Idioma(s): Español (Costa Rica), Español (Mexico), Español (Peru), Español (Spain), Español (Uruguay)
Polarity classification IberLEF 2019
- NLP topic: análisis de sentimiento
- Dataset: InterTASS-SP, InterTASS-MEX, InterTASS-CR, InterTASS-PE, InterTASS-URU
- Foro: IberLEF
- Competición: TASS: Sentiment Analysis Task at SEPLN
- Dominio:
- Idioma(s): Español (Costa Rica), Español (Mexico), Español (Peru), Español (Spain), Español (Uruguay)
Polarity classification IberLEF 2019
- NLP topic: análisis de sentimiento
- Dataset: NEGES
- Foro: IberLEF
- Competición: NEGES 2019 Task: Negation in Spanish
- Dominio:
- Idioma(s): Español
Si has publicado un resultado mejor que los de la lista, envía un mensaje a odesia-comunicacion@lsi.uned.es indicando el resultado y el DOI del artículo, junto con una copia del mismo si no está publicado en abierto.