MRR-sqv2-long

am-infoweb
Pregunta y respuesta

Este modelo es una versión afinada del mrm8488/longformer-base-4096-finetuned-squadv2 en el conjunto de datos None. Logra los siguientes resultados en el conjunto de evaluación: Pérdida: 1.2581

Como usar

Parámetros de Entrenamiento

{
  "learning_rate": "2e-05",
  "train_batch_size": 1,
  "eval_batch_size": 1,
  "seed": 42,
  "optimizer": "Adam con betas=(0.9,0.999) y epsilon=1e-08",
  "lr_scheduler_type": "lineal",
  "num_epochs": 10
}

Resultados de Entrenamiento

Pérdida de Entrenamiento
Época
Paso
Pérdida de Validación

1.215
1.0
11811
1.0751

0.8617
2.0
23622
0.9498

0.8639
3.0
35433
1.0341

0.7073
4.0
47244
0.9740

0.6156
5.0
59055
1.0663

0.5489
6.0
70866
1.0665

0.4932
7.0
82677
1.2496

0.527
8.0
94488
1.1351

0.3722
9.0
106299
1.1568

0.3599
10.0
118110
1.2581

Funcionalidades

Respuesta a preguntas
Uso de Transformers
Compatible con PyTorch
Uso de Safetensors
Basado en longformer
Generado a partir de Trainer
Compatible con Inference Endpoints

Casos de uso

Responder preguntas basadas en contexto
Integración en chatbots y asistentes virtuales
Análisis de textos extensos para extraer respuestas concretas