distilbert-base-uncased-squad
Este modelo es una versión ajustada de distilbert-base-uncased en el dataset SQuAD. Es un modelo de respuesta a preguntas que utiliza la arquitectura Transformers y está implementado en PyTorch. El modelo ha sido entrenado con los siguientes hiperparámetros: una tasa de aprendizaje de 2e-05, un tamaño de lote de entrenamiento de 8, un tamaño de lote de evaluación de 8, una semilla de 42, el optimizador Adam con betas=(0.9, 0.999) y epsilon=1e-08, un programador de tasa de aprendizaje tipo lineal, tres épocas de entrenamiento y entrenamiento de precisión mixta AMP nativa. Las versiones de los frameworks utilizados incluyen Transformers 4.16.2, Pytorch 1.10.0+cu111, Datasets 1.18.3 y Tokenizers 0.11.0. El dataset utilizado para entrenar el modelo es rajpurkar/squad.
Como usar
El modelo jgammack/distilbert-base-uncased-squad es útil para tareas de respuesta a preguntas basadas en el dataset SQuAD.
from transformers import pipeline
qa_pipeline = pipeline('question-answering', model='jgammack/distilbert-base-uncased-squad')
question = "¿Qué es Hugging Face?"
context = "Hugging Face es una compañía que desarrolla herramientas de procesamiento de lenguaje natural."
result = qa_pipeline(question=question, context=context)
print(result)
Funcionalidades
- Modelo de respuesta a preguntas
- Arquitectura Transformers
- Implementación en PyTorch
- Compatibilidad con TensorBoard
Casos de uso
- Responder a preguntas basadas en contexto dado
- Desarrollar aplicaciones de asistente virtual
- Implementar sistemas de atención al cliente automáticos