roberta-base-bne-finetuned-sqac
nlp-en-es
Pregunta y respuesta
Este modelo es una versión afinada de BSC-TeMU/roberta-base-bne en el conjunto de datos sqac. Logra los siguientes resultados en el conjunto de evaluación: Pérdida: 1.2111
Como usar
Los siguientes hiperparámetros fueron utilizados durante el entrenamiento:
learning_rate: 2e-05
train_batch_size: 16
eval_batch_size: 16
seed: 42
optimizer: Adán con betas=(0.9,0.999) y epsilon=1e-08
lr_scheduler_type: linear
num_epochs: 3
Ejemplo de uso:
# Ejemplo 1
text: '¿Dónde vivo?'
context: 'Me llamo Wolfgang y vivo en Berlin'
# Ejemplo 2
text: '¿Quién inventó el submarino?'
context: 'Isaac Peral fue un murciano que inventó el submarino'
# Ejemplo 3
text: '¿Cuántas personas hablan español?'
context: 'El español es el segundo idioma más hablado del mundo con más de 442 millones de hablantes'
Funcionalidades
- Transformers
- PyTorch
- Safetensors
- roberta
- question-answering
- generated_from_trainer
- es
- dataset:sqac
- base_model:BSC-LT/roberta-base-bne
- base_model:finetune:BSC-LT/roberta-base-bne
- license:apache-2.0
- model-index
- endpoints_compatible
- region:us
Casos de uso
- Responder preguntas basadas en contexto textual
- Evaluación de comprensión lectora
- Desarrollo de asistentes virtuales para respuestas automáticas