dccuchile / bert-base-spanish-wwm-uncased-finetuned-qa-mlqa
dccuchile
Pregunta y respuesta
Modelo BERT basado en español, entrenado con Whole Word Masking (WWM) y ajustado para preguntas y respuestas (QA) utilizando el conjunto de datos MLQA. Este modelo se utiliza principalmente para responder preguntas en español utilizando una versión sin distinguir mayúsculas y minúsculas.
Como usar
Para utilizar este modelo, puedes cargarlo a través de la biblioteca transformers de Hugging Face en PyTorch:
from transformers import AutoTokenizer, AutoModelForQuestionAnswering
model_name = 'dccuchile/bert-base-spanish-wwm-uncased-finetuned-qa-mlqa'
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForQuestionAnswering.from_pretrained(model_name)
Puedes realizar inferencias utilizando este modelo siguiendo la estructura de input adecuada para el tokenizador y el model. Para realizar una pregunta, simplemente pasa la pregunta y el contexto (el texto donde se espera encontrar la respuesta) como entradas al modelo.
Funcionalidades
- Preguntas y respuestas
- Basado en BERT
- Enmascaramiento de palabras completas (WWM)
- PyTorch
- Transformers
Casos de uso
- Respuesta a preguntas en español
- Aplicaciones de chatbots basados en español
- Sistemas de ayuda automática