roberta-base-bne-finetuned-sqac

nlp-en-es
Pregunta y respuesta

Este modelo es una versión afinada de BSC-TeMU/roberta-base-bne en el conjunto de datos sqac. Logra los siguientes resultados en el conjunto de evaluación: Pérdida: 1.2111

Como usar

Los siguientes hiperparámetros fueron utilizados durante el entrenamiento:

learning_rate: 2e-05
train_batch_size: 16
eval_batch_size: 16
seed: 42
optimizer: Adán con betas=(0.9,0.999) y epsilon=1e-08
lr_scheduler_type: linear
num_epochs: 3

Ejemplo de uso:

# Ejemplo 1
text: '¿Dónde vivo?'
context: 'Me llamo Wolfgang y vivo en Berlin'
# Ejemplo 2
text: '¿Quién inventó el submarino?'
context: 'Isaac Peral fue un murciano que inventó el submarino'
# Ejemplo 3
text: '¿Cuántas personas hablan español?'
context: 'El español es el segundo idioma más hablado del mundo con más de 442 millones de hablantes'

Funcionalidades

Transformers
PyTorch
Safetensors
roberta
question-answering
generated_from_trainer
es
dataset:sqac
base_model:BSC-LT/roberta-base-bne
base_model:finetune:BSC-LT/roberta-base-bne
license:apache-2.0
model-index
endpoints_compatible
region:us

Casos de uso

Responder preguntas basadas en contexto textual
Evaluación de comprensión lectora
Desarrollo de asistentes virtuales para respuestas automáticas