Tareas
Una tarea es una actividad propuesta con la finalidad de resolver un problema concreto de PLN, generalmente en el marco de una competición. A continuación se muestra información sobre tareas de PLN en Español desde 2013 hasta la actualidad.
- NLP topic: detección de odio
- Dataset: EXIST-2023-ES
- Foro: CLEF
- Competición: EXIST: sEXism Identification in Social neTworks
- Dominio: Social
- Idioma(s): Español
- NLP topic: detección de odio
- Dataset: EXIST-2023-ES
- Foro: CLEF
- Competición: EXIST: sEXism Identification in Social neTworks
- Dominio: Social
- Idioma(s): Español
EXIST-2023: Source Intention (hard-hard) CLEF 2023
- NLP topic: detección de odio
- Dataset: EXIST-2023-ES
- Foro: CLEF
- Competición: EXIST: sEXism Identification in Social neTworks
- Dominio: Social
- Idioma(s): Español
EXIST-2023: Source Intention (soft-soft) CLEF 2023
- NLP topic: detección de odio
- Dataset: EXIST-2023-ES
- Foro: CLEF
- Competición: EXIST: sEXism Identification in Social neTworks
- Dominio: Social
- Idioma(s): Español
- NLP topic: detección de odio
- Dataset: EXIST-2023-ES
- Foro: CLEF
- Competición: EXIST: sEXism Identification in Social neTworks
- Dominio: Social
- Idioma(s): Español
- NLP topic: detección de odio
- Dataset: EXIST-2023-ES
- Foro: CLEF
- Competición: EXIST: sEXism Identification in Social neTworks
- Dominio: Social
- Idioma(s): Español
Misogynistic behavior and target classification IberEVAL 2018
- NLP topic: detección de odio
- Dataset: AMI-ES
- Foro: IberEVAL
- Competición: AMI: Automatic Misogyny Identification
- Dominio:
- Idioma(s): Español, Inglés
Aggresive language detection IberEVAL 2018
- NLP topic: detección de odio
- Dataset: MEX-A3T-profiling
- Foro: IberEVAL
- Competición: MEX-A3T: Authorship and aggressiveness analysis in Mexican Spanish tweets
- Dominio:
- Idioma(s): Español (Mexico)
Misogyny identification IberEVAL 2018
- NLP topic: detección de odio
- Dataset: AMI-ES
- Foro: IberEVAL
- Competición: AMI: Automatic Misogyny Identification
- Dominio:
- Idioma(s): Español, Inglés
Si has publicado un resultado mejor que los de la lista, envía un mensaje a odesia-comunicacion@lsi.uned.es indicando el resultado y el DOI del artículo, junto con una copia del mismo si no está publicado en abierto.