Tareas
Una tarea es una actividad propuesta con la finalidad de resolver un problema concreto de PLN, generalmente en el marco de una competición. A continuación se muestra información sobre tareas de PLN en Español desde 2013 hasta la actualidad.
- NLP topic: elaboración de perfiles
- Dataset: PoliticES 2023
- Foro: IberLEF
- Competición: PoliticES: Political ideology detection in Spanish texts
- Dominio: Social, Política
- Idioma(s): Español
- NLP topic: elaboración de perfiles
- Dataset: MentalRiskES - Depression 2023
- Foro: IberLEF
- Competición: MentalRiskES: Early detection of mental disorders risk in Spanish
- Dominio: Salud
- Idioma(s): Español
- NLP topic: elaboración de perfiles
- Dataset: MentalRiskES - Eating disorders 2023
- Foro: IberLEF
- Competición: MentalRiskES: Early detection of mental disorders risk in Spanish
- Dominio: Salud
- Idioma(s): Español
- NLP topic: enlace de entidades
- Dataset: MedProcNER/ProcTEMIST corpus 2023
- Foro: CLEF
- Competición: BioASQ 2023: Large-scale Biomedical Semantic Indexing and Question Answering
- Dominio: Salud
- Idioma(s): Español
- NLP topic: elaboración de perfiles
- Dataset: MentalRiskES - Undefined disorder 2023
- Foro: IberLEF
- Competición: MentalRiskES: Early detection of mental disorders risk in Spanish
- Dominio: Salud
- Idioma(s): Español
- NLP topic: elaboración de perfiles
- Dataset: MentalRiskES - Depression 2023
- Foro: IberLEF
- Competición: MentalRiskES: Early detection of mental disorders risk in Spanish
- Dominio: Salud
- Idioma(s): Español
MEDDOPLACE: Location Entity Classification IberLEF 2023
- NLP topic: enlace de entidades
- Dataset: MEDDOPLACE Corpus: Gold Standard annotations for Medical Documents Place-related Content Extraction
- Foro: IberLEF
- Competición: MEDDOPLACE: MEDical DOcument PLAce-related Content Extraction
- Dominio: Salud
- Idioma(s): Español
- NLP topic: elaboración de perfiles
- Dataset: MentalRiskES - Undefined disorder 2023
- Foro: IberLEF
- Competición: MentalRiskES: Early detection of mental disorders risk in Spanish
- Dominio: Salud
- Idioma(s): Español
- NLP topic: elaboración de perfiles
- Dataset: MentalRiskES - Depression 2023
- Foro: IberLEF
- Competición: MentalRiskES: Early detection of mental disorders risk in Spanish
- Dominio: Salud
- Idioma(s): Español
- NLP topic: elaboración de perfiles
- Dataset: MentalRiskES - Eating disorders 2023
- Foro: IberLEF
- Competición: MentalRiskES: Early detection of mental disorders risk in Spanish
- Dominio: Salud
- Idioma(s): Español
DisTEMIST 2022: Entity linking CLEF 2022
- NLP topic: enlace de entidades
- Dataset: DisTEMIST
- Foro: CLEF
- Competición: DisTEMIST at BioASQ: Automatic detection and normalization of diseases from clinical texts
- Dominio: Salud
- Idioma(s): Español
Author profiling IberLEF 2022
- NLP topic: elaboración de perfiles
- Dataset: PoliticEs
- Foro: IberLEF
- Competición: PoliticEs 2022: Spanish Author Profiling for Political Ideology
- Dominio: Política
- Idioma(s): Español
Universal dependency parsing IberLEF 2020
- NLP topic: análisis sintáctico
- Dataset: CAPITEL-UD
- Foro: IberLEF
- Competición: Named entity recognition and Universal Dependency parsing
- Dominio:
- Idioma(s): Español
- NLP topic: análisis sintáctico
- Dataset: CoNLL-UD2.2-ES
- Foro: CoNLL
- Competición: CoNLL 2018 Shared Task: Multilingual Parsing from Raw Text to Universal Dependencies
- Dominio:
- Idioma(s): Español, Inglés
Authorship attribution PAN 2018
- NLP topic: elaboración de perfiles
- Dataset: PAN18-Attribution-ES
- Foro: PAN
- Competición: Cross-Domain Authorship Attribution
- Dominio: Ficción
- Idioma(s): Español, Inglés
Universal dependency parsing CoNLL 2017
- NLP topic: análisis sintáctico
- Dataset: UD2.0-es
- Foro: CoNLL
- Competición: CoNLL 2017 Shared Task: Multilingual Parsing from Raw Text to Universal Dependencies
- Dominio:
- Idioma(s): Español, Inglés
- NLP topic: análisis sintáctico
- Dataset: CoNL-2009-ES
- Foro: CoNLL
- Competición: CoNLL-2009 Shared Task: Syntactic and Semantic Dependencies in Multiple Languages
- Dominio:
- Idioma(s): Español, Inglés
Si has publicado un resultado mejor que los de la lista, envía un mensaje a odesia-comunicacion@lsi.uned.es indicando el resultado y el DOI del artículo, junto con una copia del mismo si no está publicado en abierto.