Tareas
Una tarea es una actividad propuesta con la finalidad de resolver un problema concreto de PLN, generalmente en el marco de una competición. A continuación se muestra información sobre tareas de PLN en Español desde 2013 hasta la actualidad.
- NLP topic: elaboración de perfiles
- Dataset: MentalRiskES - Undefined disorder 2023
- Foro: IberLEF
- Competición: MentalRiskES: Early detection of mental disorders risk in Spanish
- Dominio: Salud
- Idioma(s): Español
- NLP topic: elaboración de perfiles
- Dataset: MentalRiskES - Depression 2023
- Foro: IberLEF
- Competición: MentalRiskES: Early detection of mental disorders risk in Spanish
- Dominio: Salud
- Idioma(s): Español
- NLP topic: elaboración de perfiles
- Dataset: MentalRiskES - Undefined disorder 2023
- Foro: IberLEF
- Competición: MentalRiskES: Early detection of mental disorders risk in Spanish
- Dominio: Salud
- Idioma(s): Español
- NLP topic: elaboración de perfiles
- Dataset: MentalRiskES - Depression 2023
- Foro: IberLEF
- Competición: MentalRiskES: Early detection of mental disorders risk in Spanish
- Dominio: Salud
- Idioma(s): Español
- NLP topic: elaboración de perfiles
- Dataset: MentalRiskES - Eating disorders 2023
- Foro: IberLEF
- Competición: MentalRiskES: Early detection of mental disorders risk in Spanish
- Dominio: Salud
- Idioma(s): Español
- NLP topic: elaboración de perfiles
- Dataset: PoliticES 2023
- Foro: IberLEF
- Competición: PoliticES: Political ideology detection in Spanish texts
- Dominio: Social, Política
- Idioma(s): Español
- NLP topic: elaboración de perfiles
- Dataset: MentalRiskES - Depression 2023
- Foro: IberLEF
- Competición: MentalRiskES: Early detection of mental disorders risk in Spanish
- Dominio: Salud
- Idioma(s): Español
- NLP topic: elaboración de perfiles
- Dataset: MentalRiskES - Eating disorders 2023
- Foro: IberLEF
- Competición: MentalRiskES: Early detection of mental disorders risk in Spanish
- Dominio: Salud
- Idioma(s): Español
Author profiling IberLEF 2022
- NLP topic: elaboración de perfiles
- Dataset: PoliticEs
- Foro: IberLEF
- Competición: PoliticEs 2022: Spanish Author Profiling for Political Ideology
- Dominio: Política
- Idioma(s): Español
Factuality classification IberLEF 2020
- NLP topic: procesamiento de factualidad
- Dataset: FACT
- Foro: IberLEF
- Competición: FACT 2020: Factuality Analysis and Classification Task
- Dominio:
- Idioma(s): Español
Factuality classification IberLEF 2019
- NLP topic: procesamiento de factualidad
- Dataset: FACT
- Foro: IberLEF
- Competición: FACT: Factuality Analysis and Classification Task,
- Dominio:
- Idioma(s): Español
Authorship attribution PAN 2018
- NLP topic: elaboración de perfiles
- Dataset: PAN18-Attribution-ES
- Foro: PAN
- Competición: Cross-Domain Authorship Attribution
- Dominio: Ficción
- Idioma(s): Español, Inglés
Semantic textual similarity es-en SEMEVAL 2017
- NLP topic: similitud textual
- Dataset: STS 2017-es-en
- Foro: SEMEVAL
- Competición: SemEval-2017 Task 1: Semantic Textual Similarity Multilingual and Crosslingual Focused Evaluation
- Dominio:
- Idioma(s): Español, Inglés
Multilingual semantic word similarity SEMEVAL 2017
- NLP topic: similitud textual
- Dataset: Word-similarity-2017-es
- Foro: SEMEVAL
- Competición: SemEval-2017 Task 2: Multilingual and Cross-lingual Semantic Word Similarity
- Dominio:
- Idioma(s): Español, Inglés
Semantic textual similarity es-en wmt SEMEVAL 2017
- NLP topic: similitud textual
- Dataset: STS 2017-es-en-WMT
- Foro: SEMEVAL
- Competición: SemEval-2017 Task 1: Semantic Textual Similarity Multilingual and Crosslingual Focused Evaluation
- Dominio:
- Idioma(s): Español, Inglés
Semantic textual similarity es-es SEMEVAL 2015
- NLP topic: similitud textual
- Dataset: STS-2015-es
- Foro: SEMEVAL
- Competición: SemEval-2015 Task 2: Semantic Textual Similarity
- Dominio:
- Idioma(s): Español, Inglés
Semantic textual similarity es-es SEMEVAL 2014
- NLP topic: similitud textual
- Dataset: STS-2014-ES
- Foro: SEMEVAL
- Competición: SemEval-2014 Task 10: Multilingual Semantic Textual Similarity
- Dominio:
- Idioma(s): Español, Inglés
Si has publicado un resultado mejor que los de la lista, envía un mensaje a odesia-comunicacion@lsi.uned.es indicando el resultado y el DOI del artículo, junto con una copia del mismo si no está publicado en abierto.