bert-base-uncased-coqa
WillHeld
Pregunta y respuesta
Este modelo es una versión ajustada de bert-base-uncased en el conjunto de datos coqa.
Como usar
Este modelo se puede usar para tareas de preguntas y respuestas. No hay suficiente actividad para desplegarlo en Inference API (sin servidor) aún. Aumenta su visibilidad social y vuelve a intentarlo más tarde, o despliegalo en Inference Endpoints (dedicado) en su lugar.
# Código de ejemplo para usar el modelo:
from transformers import pipeline
qa_pipeline = pipeline('question-answering', model='WillHeld/bert-base-uncased-coqa')
context = 'Tu contexto aquí'
question = 'Tu pregunta aquí'
result = qa_pipeline({'context': context, 'question': question})
print(result)
Funcionalidades
- Aprendizaje supervisado
- Tamaño de lote de entrenamiento: 8
- Tamaño de lote de evaluación: 8
- Tasa de aprendizaje: 2e-05
- Semilla: 42
- Pasos de acumulación de gradiente: 2
- Tamaño total del lote de entrenamiento: 16
- Optimizador: Adam con betas=(0.9, 0.999) y epsilon=1e-08
- Tipo de programador de tasa de aprendizaje: lineal
- Ratio de calentamiento del programador de tasa de aprendizaje: 0.06
- Número de épocas: 10.0
- Versiones de frameworks: Transformers 4.21.3, Pytorch 1.7.1, Datasets 1.18.3, Tokenizers 0.11.6
Casos de uso
- Sistemas de preguntas y respuestas automáticos
- Aplicaciones de chatbots
- Asistentes virtuales
- Sistemas de soporte al cliente