Estudio comparativo sobre la generación de texto dentro del PLN usando redes neuronales recurrentes y transformers para la creación de informes relacionados con afecciones virales respiratorias asociadas con el Covid 19.


Abstract:

El Procesamiento del Lenguaje Natural (PLN) es una rama de la inteligencia artificial que se encarga del procesamiento y análisis de datos en formato de lenguaje natural, como el habla o la escritura. En este caso, se busca comparar dos enfoques en PLN, las redes neuronales recurrentes y los transformers, para generar texto relacionado con afecciones virales respiratorias asociadas con el COVID-19. En la actualidad los informes de texto generados por el procesamiento de lenguaje natural (PLN) usando redes neuronales recurrentes y Transformers, es una alternativa valiosa y eficiente al momento de optimizar tiempo y recursos en el diagnóstico de pacientes con COVID 19, con el PLN y con la ayuda de estas arquitecturas tipo LSTM en recurrentes y GPT2 en Transformers; se ha demostrado que son las más adecuadas para la correcta clasificación de datos estructurados. Su entrenamiento consiste en encajar los pesos de las entradas de todas las neuronas que forman parte de la red neuronal, para que las respuestas de salida encajen lo más posible a los datos que conocemos. Al adquirir los informes, se evaluaron modelos de redes neuronales, las cuales utilizaron el entorno de Google Colab para ser implementadas, usando lenguaje de programación Python y las librerías de machine Learning como Keras y Pytorch que recibieron datos de un Dataset para su entrenamiento, cuyo resultado es el aumento en la precisión de la Red con el conjunto de entrenamiento de informes generados. puede proporcionar información valiosa sobre el desempeño de cada enfoque en el procesamiento del lenguaje natural. Ambos enfoques tienen sus ventajas y desventajas, y es importante evaluarlos cuidadosamente para determinar el enfoque más adecuado para una tarea específica de PLN. El resultado de estos entrenamientos permitirá hacer una breve comparación entre cual arquitectura es la más apropiada para la generación de textos artificiales.

Año de publicación:

2023

Keywords:

  • Reports
  • covid-19
  • TRANSFORMERS
  • RED NEURONAL RECURRENTE
  • Informes
  • Machine learning
  • Entrenamiento
  • LSTM
  • TRANSFORMER NEURAL NETWORK
  • PLN
  • GPT2
  • Recurrent Neural Network
  • TRAINING

Fuente:

rraaerraae

Tipo de documento:

Bachelor Thesis

Estado:

Acceso abierto

Áreas de conocimiento:

  • Aprendizaje automático
  • Ciencias de la computación

Áreas temáticas de Dewey:

  • Métodos informáticos especiales
  • Programación informática, programas, datos, seguridad
  • Funcionamiento de bibliotecas y archivos