Tareas
Una tarea es una actividad propuesta con la finalidad de resolver un problema concreto de PLN, generalmente en el marco de una competición. A continuación se muestra información sobre tareas de PLN en Español desde 2013 hasta la actualidad.
AuTexTification: Model Generated Text Detection IberLEF 2023
- NLP topic: generación de texto
- Dataset: AuTexTification 2023
- Foro: IberLEF
- Competición: AuTexTification: Automated Text Identification
- Dominio: General, Legal, Noticias
- Idioma(s): Español
AuTexTification: Model Generated Text Attribution IberLEF 2023
- NLP topic: generación de texto
- Dataset: AuTexTification 2023
- Foro: IberLEF
- Competición: AuTexTification: Automated Text Identification
- Dominio: General, Legal, Noticias
- Idioma(s): Español
Multilingual semantic word similarity SEMEVAL 2017
- NLP topic: similitud textual
- Dataset: Word-similarity-2017-es
- Foro: SEMEVAL
- Competición: SemEval-2017 Task 2: Multilingual and Cross-lingual Semantic Word Similarity
- Dominio:
- Idioma(s): Español, Inglés
Semantic textual similarity es-en wmt SEMEVAL 2017
- NLP topic: similitud textual
- Dataset: STS 2017-es-en-WMT
- Foro: SEMEVAL
- Competición: SemEval-2017 Task 1: Semantic Textual Similarity Multilingual and Crosslingual Focused Evaluation
- Dominio:
- Idioma(s): Español, Inglés
Semantic textual similarity es-en SEMEVAL 2017
- NLP topic: similitud textual
- Dataset: STS 2017-es-en
- Foro: SEMEVAL
- Competición: SemEval-2017 Task 1: Semantic Textual Similarity Multilingual and Crosslingual Focused Evaluation
- Dominio:
- Idioma(s): Español, Inglés
Semantic textual similarity es-es SEMEVAL 2015
- NLP topic: similitud textual
- Dataset: STS-2015-es
- Foro: SEMEVAL
- Competición: SemEval-2015 Task 2: Semantic Textual Similarity
- Dominio:
- Idioma(s): Español, Inglés
Semantic textual similarity es-es SEMEVAL 2014
- NLP topic: similitud textual
- Dataset: STS-2014-ES
- Foro: SEMEVAL
- Competición: SemEval-2014 Task 10: Multilingual Semantic Textual Similarity
- Dominio:
- Idioma(s): Español, Inglés
Si has publicado un resultado mejor que los de la lista, envía un mensaje a odesia-comunicacion@lsi.uned.es indicando el resultado y el DOI del artículo, junto con una copia del mismo si no está publicado en abierto.