MRR-Latest-28-7
prajwalJumde
Pregunta y respuesta
Este modelo es una versión afinada de mrm8488/longformer-base-4096-finetuned-squadv2 en el dataset None. Alcanza los siguientes resultados en el conjunto de evaluación: Pérdida: 1.2367
Como usar
# Ejemplo de uso del modelo para preguntas y respuestas
from transformers import AutoTokenizer, AutoModelForQuestionAnswering
model_name = 'prajwalJumde/MRR-Latest-28-7'
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForQuestionAnswering.from_pretrained(model_name)
context = "Mi nombre es Wolfgang y vivo en Berlín."
question = "¿Dónde vivo?"
inputs = tokenizer(question, context, return_tensors='pt')
outputs = model(**inputs)
Funcionalidades
- Aprendizaje con tasa de aprendizaje: 2e-05
- Batch de entrenamiento: 2
- Batch de evaluación: 2
- Semilla: 42
- Optimizador: Adam con betas=(0.9, 0.999) y epsilon=1e-08
- Tipo de programador de tasas de aprendizaje: lineal
- Número de épocas: 10
- Compatible con transformers
- Entrenado con PyTorch
- Basado en Longformer
Casos de uso
- Respuesta a preguntas
- Búsqueda de información en documentos largos
- Consulta de datos en contextos específicos