Tareas
Una tarea es una actividad propuesta con la finalidad de resolver un problema concreto de PLN, generalmente en el marco de una competición. A continuación se muestra información sobre tareas de PLN en Español desde 2013 hasta la actualidad.
Emoji prediction SEMEVAL 2018
- NLP topic: clasificación de textos
- Dataset: Tweets emojis-ES
- Foro: SEMEVAL
- Competición: SemEval 2018 Task 2: Multilingual Emoji Prediction
- Dominio:
- Idioma(s): Español, Inglés
Misogyny identification IberEVAL 2018
- NLP topic: detección de odio
- Dataset: AMI-ES
- Foro: IberEVAL
- Competición: AMI: Automatic Misogyny Identification
- Dominio:
- Idioma(s): Español, Inglés
Authorship attribution PAN 2018
- NLP topic: elaboración de perfiles
- Dataset: PAN18-Attribution-ES
- Foro: PAN
- Competición: Cross-Domain Authorship Attribution
- Dominio: Ficción
- Idioma(s): Español, Inglés
Sentiment valence classification SEMEVAL 2018
- NLP topic: análisis de sentimiento
- Dataset: Affect in Tweets-ES
- Foro: SEMEVAL
- Competición: SemEval-2018 Task 1: Affect in Tweets
- Dominio:
- Idioma(s): Español, Inglés
Inflected form prediction CoNLL 2017
- NLP topic: morfología
- Dataset: CoNLL-SIGMORPHON-ES
- Foro: CoNLL
- Competición: CoNLL–SIGMORPHON 2017 Shared Task: Universal Morphological Reinflection
- Dominio:
- Idioma(s): Español, Inglés
Person name disambiguation IberEVAL 2017
- NLP topic: recuperación de información
- Dataset: M-WeP-NaD-2017
- Foro: IberEVAL
- Competición: Multilingual Web Person Name Disambiguation (M-WePNaD)
- Dominio:
- Idioma(s): Español, Inglés
Semantic textual similarity es-en SEMEVAL 2017
- NLP topic: similitud textual
- Dataset: STS 2017-es-en
- Foro: SEMEVAL
- Competición: SemEval-2017 Task 1: Semantic Textual Similarity Multilingual and Crosslingual Focused Evaluation
- Dominio:
- Idioma(s): Español, Inglés
Completion of inflectional paradigm CoNLL 2017
- NLP topic: morfología
- Dataset: CoNLL-SIGMORPHON-ES
- Foro: CoNLL
- Competición: CoNLL–SIGMORPHON 2017 Shared Task: Universal Morphological Reinflection
- Dominio:
- Idioma(s): Español, Inglés
Multilingual semantic word similarity SEMEVAL 2017
- NLP topic: similitud textual
- Dataset: Word-similarity-2017-es
- Foro: SEMEVAL
- Competición: SemEval-2017 Task 2: Multilingual and Cross-lingual Semantic Word Similarity
- Dominio:
- Idioma(s): Español, Inglés
Semantic textual similarity es-en wmt SEMEVAL 2017
- NLP topic: similitud textual
- Dataset: STS 2017-es-en-WMT
- Foro: SEMEVAL
- Competición: SemEval-2017 Task 1: Semantic Textual Similarity Multilingual and Crosslingual Focused Evaluation
- Dominio:
- Idioma(s): Español, Inglés
Universal dependency parsing CoNLL 2017
- NLP topic: análisis sintáctico
- Dataset: UD2.0-es
- Foro: CoNLL
- Competición: CoNLL 2017 Shared Task: Multilingual Parsing from Raw Text to Universal Dependencies
- Dominio:
- Idioma(s): Español, Inglés
Semantic textual similarity es-es SEMEVAL 2015
- NLP topic: similitud textual
- Dataset: STS-2015-es
- Foro: SEMEVAL
- Competición: SemEval-2015 Task 2: Semantic Textual Similarity
- Dominio:
- Idioma(s): Español, Inglés
L2 writing assistant SEMEVAL 2014
- NLP topic: traducción automática
- Dataset: L2 writing assistant-EN-ES
- Foro: SEMEVAL
- Competición: SemEval-2014 Task 5: L2 Writing Assistant
- Dominio:
- Idioma(s): Español, Inglés
Semantic textual similarity es-es SEMEVAL 2014
- NLP topic: similitud textual
- Dataset: STS-2014-ES
- Foro: SEMEVAL
- Competición: SemEval-2014 Task 10: Multilingual Semantic Textual Similarity
- Dominio:
- Idioma(s): Español, Inglés
CoNLL 2009: Semantic role labeling (Spanish) CoNLL 2009
- NLP topic: etiquetado de roles semánticos
- Dataset: CoNL-2009-ES
- Foro: CoNLL
- Competición: CoNLL-2009 Shared Task: Syntactic and Semantic Dependencies in Multiple Languages
- Dominio:
- Idioma(s): Español, Inglés
- NLP topic: análisis sintáctico
- Dataset: CoNL-2009-ES
- Foro: CoNLL
- Competición: CoNLL-2009 Shared Task: Syntactic and Semantic Dependencies in Multiple Languages
- Dominio:
- Idioma(s): Español, Inglés
Paginación
Si has publicado un resultado mejor que los de la lista, envía un mensaje a odesia-comunicacion@lsi.uned.es indicando el resultado y el DOI del artículo, junto con una copia del mismo si no está publicado en abierto.