Tareas
Una tarea es una actividad propuesta con la finalidad de resolver un problema concreto de PLN, generalmente en el marco de una competición. A continuación se muestra información sobre tareas de PLN en Español desde 2013 hasta la actualidad.
- NLP topic: análisis de sentimiento
- Dataset: FinancES 2023
- Foro: IberLEF
- Competición: FinancES: Financial Targeted Sentiment Analysis in Spanish
- Dominio: Finanzas
- Idioma(s): Español
GUA-SPA: Named entity classification IberLEF 2023
- NLP topic: reconocimiento de entidades nombradas
- Dataset: GUA-SPA: Guarani Spanish corpus
- Foro: IberLEF
- Competición: GUA-SPA: Guarani-Spanish Code-Switching Analysis
- Dominio: Noticias
- Idioma(s): Español
AuTexTification: Model Generated Text Detection IberLEF 2023
- NLP topic: generación de texto
- Dataset: AuTexTification 2023
- Foro: IberLEF
- Competición: AuTexTification: Automated Text Identification
- Dominio: General, Legal, Noticias
- Idioma(s): Español
- NLP topic: análisis de sentimiento
- Dataset: Rest-Mex 2023 Sentiment
- Foro: IberLEF
- Competición: Rest-Mex 2023: Research on Sentiment Analysis Task for Mexican Tourist Texts
- Dominio: Turismo
- Idioma(s): Español
GUA-SPA: Spanish code classification IberLEF 2023
- NLP topic: detección de cambio de código
- Dataset: GUA-SPA: Guarani Spanish corpus
- Foro: IberLEF
- Competición: GUA-SPA: Guarani-Spanish Code-Switching Analysis
- Dominio: Noticias
- Idioma(s): Español
AuTexTification: Model Generated Text Attribution IberLEF 2023
- NLP topic: generación de texto
- Dataset: AuTexTification 2023
- Foro: IberLEF
- Competición: AuTexTification: Automated Text Identification
- Dominio: General, Legal, Noticias
- Idioma(s): Español
Rest-Mex: Thematic Unsupervised Classification IberLEF 2023
- NLP topic: modelado de temas
- Dataset: Rest-Mex 2023 Clustering
- Foro: IberLEF
- Competición: Rest-Mex 2023: Research on Sentiment Analysis Task for Mexican Tourist Texts
- Dominio: Noticias
- Idioma(s): Español
FinancES: Financial targeted sentiment analysis IberLEF 2023
- NLP topic: análisis de sentimiento
- Dataset: FinancES 2023
- Foro: IberLEF
- Competición: FinancES: Financial Targeted Sentiment Analysis in Spanish
- Dominio: Finanzas
- Idioma(s): Español
- NLP topic: detección de lenguas
- Dataset: GUA-SPA: Guarani Spanish corpus
- Foro: IberLEF
- Competición: GUA-SPA: Guarani-Spanish Code-Switching Analysis
- Dominio: Noticias
- Idioma(s): Español
- NLP topic: detección de noticias falsas
- Dataset: CT–CWT–23-ES
- Foro: CLEF
- Competición: CheckThat!: Check-Worthiness, Subjectivity, Political Bias, Factuality, and Authority of News Articles and their Sources
- Dominio: Noticias
- Idioma(s): Español, Español (Argentina)
Rest-MEX: Predicting recommendation IberLEF 2022
- NLP topic: sistemas de recomendación
- Dataset: RestMEX-recommendation system
- Foro: IberLEF
- Competición: Rest-Mex en IberLEF 2022: Sistema de Recomendación, Análisis de Sentimiento y Predicción de Semáforo Covid para Textos Turísticos Mexicanos
- Dominio: Turismo
- Idioma(s): Español
Polarity classification IberLEF 2021
- NLP topic: análisis de sentimiento
- Dataset: RestMEX-SA
- Foro: IberLEF
- Competición: RestMEX: Recommendation System for Text Mexican Tourism
- Dominio: Turismo
- Idioma(s): Español (Mexico)
Reputation dimensions classification CLEF 2014
- NLP topic: clasificación de textos
- Dataset: RepLab-2014-Reputation
- Foro: CLEF
- Competición: RepLab 2014: Author Profiling and Reputation Dimensions for Online Reputation Management
- Dominio: Finanzas
- Idioma(s): Español
Author categorisation CLEF 2014
- NLP topic: clasificación de textos
- Dataset: RepLab-2014-Profiling
- Foro: CLEF
- Competición: RepLab 2014: Author Profiling and Reputation Dimensions for Online Reputation Management
- Dominio: Finanzas
- Idioma(s): Español
Author ranking CLEF 2014
- NLP topic: clasificación de textos
- Dataset: RepLab-2014-Profiling
- Foro: CLEF
- Competición: RepLab 2014: Author Profiling and Reputation Dimensions for Online Reputation Management
- Dominio: Finanzas
- Idioma(s): Español
Si has publicado un resultado mejor que los de la lista, envía un mensaje a odesia-comunicacion@lsi.uned.es indicando el resultado y el DOI del artículo, junto con una copia del mismo si no está publicado en abierto.