Masked language modeling y fine tuning con los modelos Bert y XLM-RoBERTa en la evaluación de la pbkp_redicción de las palabras complejas en el idioma inglés.


Abstract:

Este proyecto pretende la realizacion de la evaluación de los modelos basados en Transformers: BERT, XLM-RoBERTa ejecutado con las técnica Masked language modeling y Fine tuning aplicados al idioma inglés, con el objetivo de evaluar el nivel de pbkp_redicción de las palabras complejas en el idioma inglés aplicando redes neuronales profundas. Estos modelos pre- entrenados se ejecutaron con el corpus CompLex proporcionado por la competencia The 15th International Workshop on Semantic Evaluation- SemEval-2021 que a su vez también procederán ser entrenados y evaluados por los diferentes algoritmos para obtener la pbkp_redicción de la complejidad Léxica. Una vez obtenidos los resultados de las diferentes ejecuciones de los modelos pre-entrenados y ajustados de los modelos Transformers se evaluará su desempeño para determinar los mejores resultados de la pbkp_redicción de la complejidad léxica del idioma inglés. Se ha realizado una contribución adicional en esta investigación añadiendo otros modelos como son RoBERTa BASE, RoBERTa LARGE y XLM-RoBERTa LARGE para observar el comportamiento de estos modelos en la búsqueda de la precisión del nivel de complejidad de las palabras en inglés.

Año de publicación:

2023

Keywords:

  • complex words
  • FINE TUNING
  • ENGLISH
  • Corpus
  • Corpus
  • PALABRAS COMPLEJAS
  • TRANSFORMERS
  • Lexical Complexity
  • INGLÉS
  • COMPLEJIDAD LÉXICA
  • MASKED LANGUAGE

Fuente:

rraaerraae

Tipo de documento:

Bachelor Thesis

Estado:

Acceso abierto

Áreas de conocimiento:

  • Aprendizaje automático
  • Ciencias de la computación

Áreas temáticas:

  • Funcionamiento de bibliotecas y archivos
  • Lingüística aplicada
  • Otras ramas de la ingeniería