dccuchile / bert-base-spanish-wwm-uncased-finetuned-qa-mlqa

dccuchile
Pregunta y respuesta

Modelo BERT basado en español, entrenado con Whole Word Masking (WWM) y ajustado para preguntas y respuestas (QA) utilizando el conjunto de datos MLQA. Este modelo se utiliza principalmente para responder preguntas en español utilizando una versión sin distinguir mayúsculas y minúsculas.

Como usar

Para utilizar este modelo, puedes cargarlo a través de la biblioteca transformers de Hugging Face en PyTorch:

from transformers import AutoTokenizer, AutoModelForQuestionAnswering

model_name = 'dccuchile/bert-base-spanish-wwm-uncased-finetuned-qa-mlqa'
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForQuestionAnswering.from_pretrained(model_name)

Puedes realizar inferencias utilizando este modelo siguiendo la estructura de input adecuada para el tokenizador y el model. Para realizar una pregunta, simplemente pasa la pregunta y el contexto (el texto donde se espera encontrar la respuesta) como entradas al modelo.

Funcionalidades

Preguntas y respuestas
Basado en BERT
Enmascaramiento de palabras completas (WWM)
PyTorch
Transformers

Casos de uso

Respuesta a preguntas en español
Aplicaciones de chatbots basados en español
Sistemas de ayuda automática