MRR-sqv2-long
am-infoweb
Pregunta y respuesta
Este modelo es una versión afinada del mrm8488/longformer-base-4096-finetuned-squadv2 en el conjunto de datos None. Logra los siguientes resultados en el conjunto de evaluación: Pérdida: 1.2581
Como usar
Parámetros de Entrenamiento
{
"learning_rate": "2e-05",
"train_batch_size": 1,
"eval_batch_size": 1,
"seed": 42,
"optimizer": "Adam con betas=(0.9,0.999) y epsilon=1e-08",
"lr_scheduler_type": "lineal",
"num_epochs": 10
}
Resultados de Entrenamiento
Pérdida de Entrenamiento
Época
Paso
Pérdida de Validación
1.215
1.0
11811
1.0751
0.8617
2.0
23622
0.9498
0.8639
3.0
35433
1.0341
0.7073
4.0
47244
0.9740
0.6156
5.0
59055
1.0663
0.5489
6.0
70866
1.0665
0.4932
7.0
82677
1.2496
0.527
8.0
94488
1.1351
0.3722
9.0
106299
1.1568
0.3599
10.0
118110
1.2581
Funcionalidades
- Respuesta a preguntas
- Uso de Transformers
- Compatible con PyTorch
- Uso de Safetensors
- Basado en longformer
- Generado a partir de Trainer
- Compatible con Inference Endpoints
Casos de uso
- Responder preguntas basadas en contexto
- Integración en chatbots y asistentes virtuales
- Análisis de textos extensos para extraer respuestas concretas