Tareas
Una tarea es una actividad propuesta con la finalidad de resolver un problema concreto de PLN, generalmente en el marco de una competición. A continuación se muestra información sobre tareas de PLN en Español desde 2013 hasta la actualidad.
Contextual classification of offensive comments IberLEF 2021
- NLP topic: detección de odio
- Dataset: MeOffendES
- Foro: IberLEF
- Competición: MeOffendES: Detection of offensive language
- Dominio:
- Idioma(s): Español
Detection of toxicity level IberLEF 2021
- NLP topic: detección de odio
- Dataset: NewsCom-TOX
- Foro: IberLEF
- Competición: DETOXIS: Detection of toxicity
- Dominio:
- Idioma(s):
Fake news detection IberLEF 2021
- NLP topic: detección de noticias falsas
- Dataset: FakeDeS
- Foro: IberLEF
- Competición: FakeDeS: Fake news detection
- Dominio: COVID, otros
- Idioma(s): Español
Non-contextual classification of offensive comments IberLEF 2021
- NLP topic: detección de odio
- Dataset: MeOffendES
- Foro: IberLEF
- Competición: MeOffendES: Detection of offensive language
- Dominio:
- Idioma(s):
Sexism identification IberLEF 2021
- NLP topic: detección de odio
- Dataset: EXIST-2021-ES
- Foro: IberLEF
- Competición: EXIST: Sexism detection in Twitter
- Dominio:
- Idioma(s): Español, Inglés
Worthiness estimation CLEF 2021
- NLP topic: detección de noticias falsas
- Dataset: CheckThat-ES
- Foro: CLEF
- Competición: CheckThat! Lab Task 1 on Check-Worthiness Estimation in Tweets and Political Debates
- Dominio: Política
- Idioma(s): Español, Inglés
- NLP topic: detección de odio
- Dataset: MeOffendES
- Foro: IberLEF
- Competición: MeOffendES: Detection of offensive language
- Dominio:
- Idioma(s): Español
Sexism classification IberLEF 2021
- NLP topic: detección de odio
- Dataset: EXIST-2021-ES
- Foro: IberLEF
- Competición: EXIST: Sexism detection in Twitter
- Dominio:
- Idioma(s): Español, Inglés
Detection of toxicity IberLEF 2021
- NLP topic: detección de odio
- Dataset: NewsCom-TOX
- Foro: IberLEF
- Competición: DETOXIS: Detection of toxicity
- Dominio:
- Idioma(s):
Si has publicado un resultado mejor que los de la lista, envía un mensaje a odesia-comunicacion@lsi.uned.es indicando el resultado y el DOI del artículo, junto con una copia del mismo si no está publicado en abierto.