distilbert-squadv1
abhilash1910
Pregunta y respuesta
DistilBERT modelo entrenado en el dataset SQuAD. Este modelo puede ser accedido vía Hugging Face para realizar tareas de preguntas y respuestas.
Como usar
from transformers import AutoModelForQuestionAnswering, AutoTokenizer, pipeline
model=AutoModelForQuestionAnswering.from_pretrained('abhilash1910/distilbert-squadv1')
tokenizer=AutoTokenizer.from_pretrained('abhilash1910/distilbert-squadv1')
nlp_QA=pipeline('question-answering', model=model, tokenizer=tokenizer)
QA_inp={
'question': 'What is the fund price of Huggingface in NYSE?',
'context': 'Huggingface Co. has a total fund price of $19.6 million dollars'
}
result=nlp_QA(QA_inp)
result
Funcionalidades
- Tamaño del batch de entrenamiento: 512
- Tasa de aprendizaje: 3e-5
- Épocas de entrenamiento: 0.75
- Longitud de la secuencia: 384
- Stride: 128
Casos de uso
- Realización de tareas de preguntas y respuestas en textos.