Tareas
Una tarea es una actividad propuesta con la finalidad de resolver un problema concreto de PLN, generalmente en el marco de una competición. A continuación se muestra información sobre tareas de PLN en Español desde 2013 hasta la actualidad.
AuTexTification: Model Generated Text Attribution IberLEF 2023
- NLP topic: generación de texto
- Dataset: AuTexTification 2023
- Foro: IberLEF
- Competición: AuTexTification: Automated Text Identification
- Dominio: General, Legal, Noticias
- Idioma(s): Español
- NLP topic: detección de noticias falsas
- Dataset: CT–CWT–23-ES
- Foro: CLEF
- Competición: CheckThat!: Check-Worthiness, Subjectivity, Political Bias, Factuality, and Authority of News Articles and their Sources
- Dominio: Noticias
- Idioma(s): Español, Español (Argentina)
- NLP topic: clasificación de textos
- Dataset: ClinAIS 2023
- Foro: IberLEF
- Competición: ClinAIS: Automatic identification of sections in clinical documents
- Dominio: Salud
- Idioma(s): Español
AuTexTification: Model Generated Text Detection IberLEF 2023
- NLP topic: generación de texto
- Dataset: AuTexTification 2023
- Foro: IberLEF
- Competición: AuTexTification: Automated Text Identification
- Dominio: General, Legal, Noticias
- Idioma(s): Español
Clinical impact detection IberLEF 2022
- NLP topic: clasificación de textos
- Dataset: LivingNER
- Foro: IberLEF
- Competición: LivingNER: Named-Entity Recognition and entity linking for living being mentions
- Dominio: Salud
- Idioma(s): Español
- NLP topic: clasificación de textos
- Dataset: SMM4H-tweets-es-2022
- Foro: COLING
- Competición: Seventh Social Media Mining for Health Applications
- Dominio: Salud
- Idioma(s): Español
Detection of lexical borrowings IberLEF 2021
- NLP topic: clasificación de textos
- Dataset: ADoBo
- Foro: IberLEF
- Competición: ADOBO: Detection of lexical borrowings
- Dominio:
- Idioma(s): Español
Fake news detection IberLEF 2021
- NLP topic: detección de noticias falsas
- Dataset: FakeDeS
- Foro: IberLEF
- Competición: FakeDeS: Fake news detection
- Dominio: COVID, otros
- Idioma(s): Español
Occupation and occupation holder detection IberLEF 2021
- NLP topic: clasificación de textos
- Dataset: MEDDOPROF
- Foro: IberLEF
- Competición: Recognition, classification and normalization of professions and occupations from medical texts
- Dominio: Salud
- Idioma(s): Español
Worthiness estimation CLEF 2021
- NLP topic: detección de noticias falsas
- Dataset: CheckThat-ES
- Foro: CLEF
- Competición: CheckThat! Lab Task 1 on Check-Worthiness Estimation in Tweets and Political Debates
- Dominio: Política
- Idioma(s): Español, Inglés
Named entity normalization IberLEF 2021
- NLP topic: clasificación de textos
- Dataset: MEDDOPROF
- Foro: IberLEF
- Competición: Recognition, classification and normalization of professions and occupations from medical texts
- Dominio: Salud
- Idioma(s): Español
Fake news detection IberLEF 2020
- NLP topic: detección de noticias falsas
- Dataset: Spanish Fake News Corpus
- Foro: IberLEF
- Competición: MEX-A3T
- Dominio: Diversos
- Idioma(s): Español (Mexico)
Emoji prediction SEMEVAL 2018
- NLP topic: clasificación de textos
- Dataset: Tweets emojis-ES
- Foro: SEMEVAL
- Competición: SemEval 2018 Task 2: Multilingual Emoji Prediction
- Dominio:
- Idioma(s): Español, Inglés
Author ranking CLEF 2014
- NLP topic: clasificación de textos
- Dataset: RepLab-2014-Profiling
- Foro: CLEF
- Competición: RepLab 2014: Author Profiling and Reputation Dimensions for Online Reputation Management
- Dominio: Finanzas
- Idioma(s): Español
Reputation dimensions classification CLEF 2014
- NLP topic: clasificación de textos
- Dataset: RepLab-2014-Reputation
- Foro: CLEF
- Competición: RepLab 2014: Author Profiling and Reputation Dimensions for Online Reputation Management
- Dominio: Finanzas
- Idioma(s): Español
Author categorisation CLEF 2014
- NLP topic: clasificación de textos
- Dataset: RepLab-2014-Profiling
- Foro: CLEF
- Competición: RepLab 2014: Author Profiling and Reputation Dimensions for Online Reputation Management
- Dominio: Finanzas
- Idioma(s): Español
Si has publicado un resultado mejor que los de la lista, envía un mensaje a odesia-comunicacion@lsi.uned.es indicando el resultado y el DOI del artículo, junto con una copia del mismo si no está publicado en abierto.