MRR-Latest-28-7

prajwalJumde
Pregunta y respuesta

Este modelo es una versión afinada de mrm8488/longformer-base-4096-finetuned-squadv2 en el dataset None. Alcanza los siguientes resultados en el conjunto de evaluación: Pérdida: 1.2367

Como usar

# Ejemplo de uso del modelo para preguntas y respuestas
from transformers import AutoTokenizer, AutoModelForQuestionAnswering

model_name = 'prajwalJumde/MRR-Latest-28-7'
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForQuestionAnswering.from_pretrained(model_name)

context = "Mi nombre es Wolfgang y vivo en Berlín."
question = "¿Dónde vivo?"

inputs = tokenizer(question, context, return_tensors='pt')
outputs = model(**inputs)

Funcionalidades

Aprendizaje con tasa de aprendizaje: 2e-05
Batch de entrenamiento: 2
Batch de evaluación: 2
Semilla: 42
Optimizador: Adam con betas=(0.9, 0.999) y epsilon=1e-08
Tipo de programador de tasas de aprendizaje: lineal
Número de épocas: 10
Compatible con transformers
Entrenado con PyTorch
Basado en Longformer

Casos de uso

Respuesta a preguntas
Búsqueda de información en documentos largos
Consulta de datos en contextos específicos