Tareas
Una tarea es una actividad propuesta con la finalidad de resolver un problema concreto de PLN, generalmente en el marco de una competición. A continuación se muestra información sobre tareas de PLN en Español desde 2013 hasta la actualidad.
HOPE. Multilingual Hope Speech detection - Spanish IberLEF 2023
- NLP topic: detección de odio
- Dataset: HOPE-ES 2023
- Foro: IberLEF
- Competición: HOPE: Multilingual Hope Speech detection
- Dominio: Social
- Idioma(s): Español, Inglés
Relation extraction IberLEF 2021
- NLP topic: extracción de relaciones
- Dataset: eHealth-KD-ES
- Foro: IberLEF
- Competición: eHealth Knowledge Discovery
- Dominio: Salud
- Idioma(s): Español, Inglés
Sexism classification IberLEF 2021
- NLP topic: detección de odio
- Dataset: EXIST-2021-ES
- Foro: IberLEF
- Competición: EXIST: Sexism detection in Twitter
- Dominio:
- Idioma(s): Español, Inglés
Sexism identification IberLEF 2021
- NLP topic: detección de odio
- Dataset: EXIST-2021-ES
- Foro: IberLEF
- Competición: EXIST: Sexism detection in Twitter
- Dominio:
- Idioma(s): Español, Inglés
Hate speech detection SEMEVAL 2019
- NLP topic: detección de odio
- Dataset: HateEval-ES
- Foro: SEMEVAL
- Competición: SemEval-2019 Task 5: Multilingual Detection of Hate Speech Against Immigrants and Women in Twitter
- Dominio:
- Idioma(s): Español, Inglés
Aggressive behaviour and target classification SEMEVAL 2019
- NLP topic: detección de odio
- Dataset: HateEval-ES
- Foro: SEMEVAL
- Competición: SemEval-2019 Task 5: Multilingual Detection of Hate Speech Against Immigrants and Women in Twitter
- Dominio:
- Idioma(s): Español, Inglés
Misogyny identification IberEVAL 2018
- NLP topic: detección de odio
- Dataset: AMI-ES
- Foro: IberEVAL
- Competición: AMI: Automatic Misogyny Identification
- Dominio:
- Idioma(s): Español, Inglés
Misogynistic behavior and target classification IberEVAL 2018
- NLP topic: detección de odio
- Dataset: AMI-ES
- Foro: IberEVAL
- Competición: AMI: Automatic Misogyny Identification
- Dominio:
- Idioma(s): Español, Inglés
Si has publicado un resultado mejor que los de la lista, envía un mensaje a odesia-comunicacion@lsi.uned.es indicando el resultado y el DOI del artículo, junto con una copia del mismo si no está publicado en abierto.