roberta-base-on-cuad-finetuned-squad
ygory
Pregunta y respuesta
Este modelo es una versión afinada de Rakib/roberta-base-on-cuad en el dataset None. El modelo está ajustado para realizar tareas de respuesta a preguntas y ha sido entrenado utilizando hyperparámetros específicos para optimizar su rendimiento.
Como usar
Procedimiento de Entrenamiento
learning_rate: 2e-05
train_batch_size: 16
eval_batch_size: 16
seed: 42
optimizer: Adam con betas=(0.9,0.999) y epsilon=1e-08
lr_scheduler_type: linear
num_epochs: 3
Resultados del Entrenamiento
Pérdida en el entrenamiento:
Época 1
Paso 50
Pérdida de validación 0.0598
Época 2
Paso 100
Pérdida de validación 0.0480
Época 3
Paso 150
Pérdida de validación 0.0745
...
Ejemplos de uso
{
"text":"Where do I live?",
"context":"My name is Wolfgang and I live in Berlin"
},
{
"text":"Where do I live?",
"context":"My name is Sarah and I live in London"
},
{
"text":"What's my name?",
"context":"My name is Clara and I live in Berkeley."
}
Funcionalidades
- Transformers
- TensorBoard
- Safetensors
- roberta
- Respuesta a preguntas
- Generado desde el entrenador
- Compatible con endpoints
- Licencia: MIT
- Región: US
Casos de uso
- Responder preguntas basadas en un contexto dado
- Soporte en chatbots y sistemas de atención al cliente
- Aplicaciones de búsqueda de información