roberta-base-on-cuad-finetuned-squad

ygory
Pregunta y respuesta

Este modelo es una versión afinada de Rakib/roberta-base-on-cuad en el dataset None. El modelo está ajustado para realizar tareas de respuesta a preguntas y ha sido entrenado utilizando hyperparámetros específicos para optimizar su rendimiento.

Como usar

Procedimiento de Entrenamiento

learning_rate: 2e-05
train_batch_size: 16
eval_batch_size: 16
seed: 42
optimizer: Adam con betas=(0.9,0.999) y epsilon=1e-08
lr_scheduler_type: linear
num_epochs: 3

Resultados del Entrenamiento

Pérdida en el entrenamiento:
Época 1
Paso 50
Pérdida de validación 0.0598
Época 2
Paso 100
Pérdida de validación 0.0480
Época 3
Paso 150
Pérdida de validación 0.0745
...

Ejemplos de uso

{
"text":"Where do I live?",
"context":"My name is Wolfgang and I live in Berlin"
},
{
"text":"Where do I live?",
"context":"My name is Sarah and I live in London"
},
{
"text":"What's my name?",
"context":"My name is Clara and I live in Berkeley."
}

Funcionalidades

Transformers
TensorBoard
Safetensors
roberta
Respuesta a preguntas
Generado desde el entrenador
Compatible con endpoints
Licencia: MIT
Región: US

Casos de uso

Responder preguntas basadas en un contexto dado
Soporte en chatbots y sistemas de atención al cliente
Aplicaciones de búsqueda de información