Tareas
Una tarea es una actividad propuesta con la finalidad de resolver un problema concreto de PLN, generalmente en el marco de una competición. A continuación se muestra información sobre tareas de PLN en Español desde 2013 hasta la actualidad.
Hate speech detection SEMEVAL 2019
- NLP topic: detección de odio
- Dataset: HateEval-ES
- Foro: SEMEVAL
- Competición: SemEval-2019 Task 5: Multilingual Detection of Hate Speech Against Immigrants and Women in Twitter
- Dominio:
- Idioma(s): Español, Inglés
Polarity classification IberLEF 2019
- NLP topic: análisis de sentimiento
- Dataset: InterTASS-SP, InterTASS-MEX, InterTASS-CR, InterTASS-PE, InterTASS-URU
- Foro: IberLEF
- Competición: TASS: Sentiment Analysis Task at SEPLN
- Dominio:
- Idioma(s): Español (Costa Rica), Español (Mexico), Español (Peru), Español (Spain), Español (Uruguay)
Humor detection IberLEF 2019
- NLP topic: procesamiento de humor
- Dataset: HAHA
- Foro: IberLEF
- Competición: HAHA 2019: Humor Analysis based on Human Annotation
- Dominio:
- Idioma(s): Español
Polarity classification IberLEF 2019
- NLP topic: análisis de sentimiento
- Dataset: NEGES
- Foro: IberLEF
- Competición: NEGES 2019 Task: Negation in Spanish
- Dominio:
- Idioma(s): Español
Irony detection IberLEF 2019
- NLP topic: procesamiento de humor
- Dataset: IDAT-SP-EU, IDAT-SP-MEX, IDAT-SP-CUBA
- Foro: IberLEF
- Competición: Irony Detection in Spanish Variants
- Dominio:
- Idioma(s): Español (Cuba), Español (Mexico), Español (Spain)
Aggressive behaviour and target classification SEMEVAL 2019
- NLP topic: detección de odio
- Dataset: HateEval-ES
- Foro: SEMEVAL
- Competición: SemEval-2019 Task 5: Multilingual Detection of Hate Speech Against Immigrants and Women in Twitter
- Dominio:
- Idioma(s): Español, Inglés
Polarity classification IberLEF 2019
- NLP topic: análisis de sentimiento
- Dataset: InterTASS-SP, InterTASS-MEX, InterTASS-CR, InterTASS-PE, InterTASS-URU
- Foro: IberLEF
- Competición: TASS: Sentiment Analysis Task at SEPLN
- Dominio:
- Idioma(s): Español (Costa Rica), Español (Mexico), Español (Peru), Español (Spain), Español (Uruguay)
Polarity classification IberLEF 2019
- NLP topic: análisis de sentimiento
- Dataset: InterTASS-SP, InterTASS-MEX, InterTASS-CR, InterTASS-PE, InterTASS-URU
- Foro: IberLEF
- Competición: TASS: Sentiment Analysis Task at SEPLN
- Dominio:
- Idioma(s): Español (Costa Rica), Español (Mexico), Español (Peru), Español (Spain), Español (Uruguay)
Relation extraction IberLEF 2019
- NLP topic: extracción de información
- Dataset: eHealth-KD 2019
- Foro: IberLEF
- Competición: eHealth-KD 2019: eHealth Knowledge Discovery
- Dominio:
- Idioma(s): Español
Irony detection IberLEF 2019
- NLP topic: procesamiento de humor
- Dataset: IDAT-SP-EU, IDAT-SP-MEX, IDAT-SP-CUBA
- Foro: IberLEF
- Competición: Irony Detection in Spanish Variants
- Dominio:
- Idioma(s): Español (Cuba), Español (Mexico), Español (Spain)
Polarity classification IberLEF 2019
- NLP topic: análisis de sentimiento
- Dataset: InterTASS-SP, InterTASS-MEX, InterTASS-CR, InterTASS-PE, InterTASS-URU
- Foro: IberLEF
- Competición: TASS: Sentiment Analysis Task at SEPLN
- Dominio:
- Idioma(s): Español (Costa Rica), Español (Mexico), Español (Peru), Español (Spain), Español (Uruguay)
Polarity classification IberLEF 2019
- NLP topic: análisis de sentimiento
- Dataset: InterTASS-SP, InterTASS-MEX, InterTASS-CR, InterTASS-PE, InterTASS-URU
- Foro: IberLEF
- Competición: TASS: Sentiment Analysis Task at SEPLN
- Dominio:
- Idioma(s): Español (Costa Rica), Español (Mexico), Español (Peru), Español (Spain), Español (Uruguay)
Factuality classification IberLEF 2019
- NLP topic: procesamiento de factualidad
- Dataset: FACT
- Foro: IberLEF
- Competición: FACT: Factuality Analysis and Classification Task,
- Dominio:
- Idioma(s): Español
Irony detection IberLEF 2019
- NLP topic: procesamiento de humor
- Dataset: IDAT-SP-EU, IDAT-SP-MEX, IDAT-SP-CUBA
- Foro: IberLEF
- Competición: Irony Detection in Spanish Variants
- Dominio:
- Idioma(s): Español (Cuba), Español (Mexico), Español (Spain)
Si has publicado un resultado mejor que los de la lista, envía un mensaje a odesia-comunicacion@lsi.uned.es indicando el resultado y el DOI del artículo, junto con una copia del mismo si no está publicado en abierto.