Modelos de lenguaje


Modelos de lenguaje

RecursosRepositorio

Los modelos de lenguaje, Language Models (LM), son más sofisticados que los word-embeddings ya que para determinar el vector de una palabra considera el contexto de la misma, y muchos modelos también son capaces de generar apartir de lo aprendido.

BERT es un modelo de lenguaje que básicamente rompió el paradigma. Consiste en una serie de encoders que generan embeddings para cada palabra dependiendo de su contexto. El entrenamiento usa un lenguaje de enmascarado, Masked Language Model (MLM). Cada sentencia enmascará tokens de manera aleatoría (se enmascaran 15% de los tokens). También se entrena para predicción de la siguiente frase.

Recursos computacionales y necesidad de datos

Como se compara BILMA con los word-embeddings

\textit{Accuracy} en predicción de Emoji-15 -- \textit{tuneado}
  • Se tuneó el modelo BILMA para predecir emoticones añadiendo dos capas lineales a los embeddings de inicio, por lo que se puede ver que se predice independiente de la posición.

  • Tuneado con 90%-10% del training set de la región hasta que el accuracy converge.

  • Se evaluó con test regional.

  • Observe que es una matriz de modelos pre-entrenados y tuneos.

  • Los resultados en general son muy similares a los modelos de fastText, pero, los modelos BILMA pueden hacer más cosas...

Usando BILMA para completar frases (mediante máscaras)

\textit{Accuracy} en la tarea MLM para el test

Ejemplos de completar frases (no vistas) sobre recursos regionales

Completando frases -- minería de opinión
Introducción - Corpus - Recursos léxicos - Word embeddings - Modelos de lenguaje - Conclusiones
CC BY-SA 4.0 Eric S. Tellez . Last modified: January 26, 2023. Website built with Franklin.jl and the Julia programming language.