ericRosello / distilbert-base-uncased-finetuned-squad-frozen-v2

ericRosello
Pregunta y respuesta

Este modelo es una versión finamente ajustada de distilbert-base-uncased en el conjunto de datos squad. La mayoría de los pesos del modelo base se congelaron, dejando solo la última capa (qa outputs) y las 3 últimas capas del codificador para ajuste fino. El modelo logra los siguientes resultados en el conjunto de evaluación: EM: 73.519394512772, F1: 82.71779517079237, Pérdida: 1.2104.

Como usar

Para utilizar este modelo puede seguir los siguientes pasos:

from transformers import AutoTokenizer, AutoModelForQuestionAnswering

tokenizer = AutoTokenizer.from_pretrained('ericRosello/distilbert-base-uncased-finetuned-squad-frozen-v2')

model = AutoModelForQuestionAnswering.from_pretrained('ericRosello/distilbert-base-uncased-finetuned-squad-frozen-v2')

Asegúrese de cargar y preprocesar sus datos correctamente antes de alimentar al modelo.

Funcionalidades

Pérdida: 1.2104
Resultados de EM: 73.519394512772
Resultados de F1: 82.71779517079237
Hiperparámetros de entrenamiento: tasa de aprendizaje: 2e-05, tamaño de lote de entrenamiento: 16, tamaño de lote de evaluación: 16, semilla: 42, optimizador: Adam con betas=(0.9,0.999) y epsilon=1e-08, tipo de programador de tasa de aprendizaje: lineal, número de épocas: 3
Versiones de framework utilizadas: Transformers 4.15.0, PyTorch 1.10.0+cu111, Datasets 1.17.0, Tokenizers 0.10.3

Casos de uso

Responder preguntas basándose en un conjunto de datos de texto.
Aplicaciones de chatbots que necesitan entender y responder a preguntas del usuario.