Datasets

A continuación se muestra información sobre conjuntos de datos textuales en español creados con el objetivo de resolver tareas de PLN. En este caso, se trata de colecciones de textos, generalmente enriquecidas con anotaciones.
  • CT–CWT–23-ES

    Noticias
    Español
    Publicado en 2023
    29,984
    Tuits
    detección de noticias falsas

  • DA-VINCIS 2023

    Social
    Español (Mexico)
    Publicado en 2023
    4,731
    Tuits
    procesamiento de eventos

  • ReCoRES

    Educación
    Español (Peru)
    Publicado en 2022
    1,822
    Exámenes de acceso a la universidad
    similitud textual

  • DA-VINCIS

    Social
    Español (Mexico)
    Publicado en 2022
    5,453
    Tuits
    procesamiento de eventos

  • CT–CWT–22-ES

    Español
    Publicado en 2022
    14,990
    Tuits
    detección de noticias falsas

  • CheckThat-ES

    Política
    Español
    Publicado en 2021
    4,990
    Tuits
    detección de noticias falsas

  • FakeDeS

    COVID, otros
    Español
    Publicado en 2021
    1,633
    Noticias
    detección de noticias falsas

  • PAN-AP-2020-ES

    Español
    Publicado en 2020
    500
    Tuits
    detección de noticias falsas

  • Spanish Fake News Corpus

    Diversos
    Español (Mexico)
    Publicado en 2020
    971
    Noticias
    detección de noticias falsas

  • FACT

    Español , Español (Uruguay)
    Publicado en 2020
    Noticias
    procesamiento de factualidad, procesamiento de eventos

  • Word-similarity-2017-es

    Español
    Publicado en 2017
    500
    Pares de palabras
    similitud textual

  • STS 2017-es-en-WMT

    Español , Inglés
    Publicado en 2017
    1,250
    Pares de oraciones
    similitud textual

  • STS 2017-es-en

    Español , Inglés
    Publicado en 2017
    1,971
    Pares de oraciones
    similitud textual

  • STS-2015-es

    Español
    Publicado en 2015
    1,616
    Pares de oraciones
    similitud textual

  • STS-2014-ES

    Español
    Publicado en 2014
    Pares de oraciones
    similitud textual

Si has publicado un resultado mejor que los de la lista, envía un mensaje a odesia-comunicacion@lsi.uned.es indicando el resultado y el DOI del artículo, junto con una copia del mismo si no está publicado en abierto.