Tareas
Una tarea es una actividad propuesta con la finalidad de resolver un problema concreto de PLN, generalmente en el marco de una competición. A continuación se muestra información sobre tareas de PLN en Español desde 2013 hasta la actualidad.
Inflected form prediction CoNLL 2017
- NLP topic: morfología
- Dataset: CoNLL-SIGMORPHON-ES
- Foro: CoNLL
- Competición: CoNLL–SIGMORPHON 2017 Shared Task: Universal Morphological Reinflection
- Dominio:
- Idioma(s): Español, Inglés
Person name disambiguation IberEVAL 2017
- NLP topic: recuperación de información
- Dataset: M-WeP-NaD-2017
- Foro: IberEVAL
- Competición: Multilingual Web Person Name Disambiguation (M-WePNaD)
- Dominio:
- Idioma(s): Español, Inglés
Completion of inflectional paradigm CoNLL 2017
- NLP topic: morfología
- Dataset: CoNLL-SIGMORPHON-ES
- Foro: CoNLL
- Competición: CoNLL–SIGMORPHON 2017 Shared Task: Universal Morphological Reinflection
- Dominio:
- Idioma(s): Español, Inglés
Multilingual semantic word similarity SEMEVAL 2017
- NLP topic: similitud textual
- Dataset: Word-similarity-2017-es
- Foro: SEMEVAL
- Competición: SemEval-2017 Task 2: Multilingual and Cross-lingual Semantic Word Similarity
- Dominio:
- Idioma(s): Español, Inglés
Semantic textual similarity es-en SEMEVAL 2017
- NLP topic: similitud textual
- Dataset: STS 2017-es-en
- Foro: SEMEVAL
- Competición: SemEval-2017 Task 1: Semantic Textual Similarity Multilingual and Crosslingual Focused Evaluation
- Dominio:
- Idioma(s): Español, Inglés
Universal dependency parsing CoNLL 2017
- NLP topic: análisis sintáctico
- Dataset: UD2.0-es
- Foro: CoNLL
- Competición: CoNLL 2017 Shared Task: Multilingual Parsing from Raw Text to Universal Dependencies
- Dominio:
- Idioma(s): Español, Inglés
Semantic textual similarity es-en wmt SEMEVAL 2017
- NLP topic: similitud textual
- Dataset: STS 2017-es-en-WMT
- Foro: SEMEVAL
- Competición: SemEval-2017 Task 1: Semantic Textual Similarity Multilingual and Crosslingual Focused Evaluation
- Dominio:
- Idioma(s): Español, Inglés
Si has publicado un resultado mejor que los de la lista, envía un mensaje a odesia-comunicacion@lsi.uned.es indicando el resultado y el DOI del artículo, junto con una copia del mismo si no está publicado en abierto.