Datasets

A continuación se muestra información sobre conjuntos de datos textuales en español creados con el objetivo de resolver tareas de PLN. En este caso, se trata de colecciones de textos, generalmente enriquecidas con anotaciones.
Filtrar por
  • SQUAD-SQAC 2024 ES

    Diversos
    Español
    Publicado en 2024
    110
    Publicaciones científicas
    sistemas de pregunta-respuesta

  • EXIST-2023-ES

    Social
    Español , Inglés
    Publicado en 2023
    4,653
    Tuits
    detección de odio

  • HOPE-ES 2023

    Social
    Español
    Publicado en 2023
    2,062
    Tuits
    detección de odio

  • HOMO-MEX 2023

    Social
    Español (Mexico)
    Publicado en 2023
    11,000
    Tuits
    detección de odio

  • SQAC

    General, Noticias
    Español
    Publicado en 2022
    8,817
    Entradas de enciclopedia Noticias
    sistemas de pregunta-respuesta

  • QuALES

    Salud
    Español (Uruguay)
    Publicado en 2022
    465
    Noticias
    sistemas de pregunta-respuesta

  • EXIST-2022-ES

    Español
    Publicado en 2022
    6,226
    Tuits
    detección de odio

  • DETESTS

    Noticias
    Español
    Publicado en 2022
    5,629
    Comentarios en noticias
    detección de odio

  • MeOffendES

    Español
    Publicado en 2021
    30,416
    Tuits Comentarios en Instagram Comentarios en Youtube
    detección de odio

  • PAN-AP-2021-ES

    Social
    Español
    Publicado en 2021
    300
    Tuits
    detección de odio

  • EXIST-2021-ES

    Español
    Publicado en 2021
    5,701
    Redes sociales
    detección de odio

  • NewsCom-TOX

    Español
    Publicado en 2021
    4,359
    Comentarios de noticias
    detección de odio

  • Mexican Aggressiveness Corpus

    Español (Mexico)
    Publicado en 2020
    10,475
    Tuits
    detección de odio

  • HateEval-ES

    Español
    Publicado en 2019
    6,600
    Tuits
    detección de odio

  • MEX-A3T-profiling

    Español (Mexico)
    Publicado en 2018
    5,000
    Tuits
    análisis estilístico, detección de odio

Si has publicado un resultado mejor que los de la lista, envía un mensaje a odesia-comunicacion@lsi.uned.es indicando el resultado y el DOI del artículo, junto con una copia del mismo si no está publicado en abierto.