bert-base-uncased-coqa

WillHeld
Pregunta y respuesta

Este modelo es una versión ajustada de bert-base-uncased en el conjunto de datos coqa.

Como usar

Este modelo se puede usar para tareas de preguntas y respuestas. No hay suficiente actividad para desplegarlo en Inference API (sin servidor) aún. Aumenta su visibilidad social y vuelve a intentarlo más tarde, o despliegalo en Inference Endpoints (dedicado) en su lugar.

# Código de ejemplo para usar el modelo:
from transformers import pipeline

qa_pipeline = pipeline('question-answering', model='WillHeld/bert-base-uncased-coqa')

context = 'Tu contexto aquí'
question = 'Tu pregunta aquí'
result = qa_pipeline({'context': context, 'question': question})
print(result)

Funcionalidades

Aprendizaje supervisado
Tamaño de lote de entrenamiento: 8
Tamaño de lote de evaluación: 8
Tasa de aprendizaje: 2e-05
Semilla: 42
Pasos de acumulación de gradiente: 2
Tamaño total del lote de entrenamiento: 16
Optimizador: Adam con betas=(0.9, 0.999) y epsilon=1e-08
Tipo de programador de tasa de aprendizaje: lineal
Ratio de calentamiento del programador de tasa de aprendizaje: 0.06
Número de épocas: 10.0
Versiones de frameworks: Transformers 4.21.3, Pytorch 1.7.1, Datasets 1.18.3, Tokenizers 0.11.6

Casos de uso

Sistemas de preguntas y respuestas automáticos
Aplicaciones de chatbots
Asistentes virtuales
Sistemas de soporte al cliente