bert-tiny-finetuned-squad
anas-awadalla
Pregunta y respuesta
Este modelo es una versión ajustada (fine-tuned) de prajjwal1/bert-tiny en el conjunto de datos SQuAD. Este modelo ha sido entrenado para la tarea de Respuesta a Preguntas utilizando los datos de SQuAD.
Como usar
Para usar este modelo, puedes cargarlo utilizando las siguientes bibliotecas y configuraciones:
from transformers import AutoModelForQuestionAnswering, AutoTokenizer
model_name = "anas-awadalla/bert-tiny-finetuned-squad"
model = AutoModelForQuestionAnswering.from_pretrained(model_name)
tokenizer = AutoTokenizer.from_pretrained(model_name)
question, text = "¿Qué es bert-tiny?", "Bert-tiny es una versión reducida del modelo BERT."
input_dict = tokenizer(question, text, return_tensors='pt')
outputs = model(**input_dict)
start_scores, end_scores = outputs.start_logits, outputs.end_logits
Los hiperparámetros utilizados durante el entrenamiento fueron:
- learning_rate: 3e-05
- train_batch_size: 64
- eval_batch_size: 8
- seed: 42
- distributed_type: multi-GPU
- optimizer: Adam con betas=(0.9,0.999) y epsilon=1e-08
- lr_scheduler_type: lineal
- num_epochs: 2.0
Funcionalidades
- Respuesta a Preguntas
- Transformers
- PyTorch
- TensorBoard
Casos de uso
- Respuestas automatizadas a preguntas en documentos largos
- Asistentes virtuales
- Sistemas de búsqueda de información
- Soporte técnico automatizado