distilbert-base-uncased-finetuned-squad

toorgil
Pregunta y respuesta

Este modelo es una versión ajustada de distilbert-base-uncased en un conjunto de datos desconocido. No hay suficiente información sobre los datos de entrenamiento y evaluación, ni sobre los usos previstos y limitaciones. El modelo alcanza una pérdida de 5.4253 en el conjunto de evaluación.

Como usar

Para usar este modelo en Hugging Face, puedes usar el siguiente código en Python:

from transformers import DistilBertForQuestionAnswering, AutoTokenizer

model_name = 'toorgil/distilbert-base-uncased-finetuned-squad'
model = DistilBertForQuestionAnswering.from_pretrained(model_name)
tokenizer = AutoTokenizer.from_pretrained(model_name)

question, text = '¿Cuál es el propósito de este modelo?', 'El modelo distilbert-base-uncased ha sido ajustado para tareas de respuesta de preguntas.'
inputs = tokenizer(question, text, return_tensors='pt')
outputs = model(**inputs)

El modelo no tiene suficiente actividad para ser desplegado en la API de Inferencia aún. Incrementa su visibilidad social y vuelve a revisarlo más tarde, o despliega en Puntos de Inferencia dedicados.

Funcionalidades

Aprendizaje supervisado
Ajuste fino en distilbert-base-uncased
Optimización con Adam
Programación de tasa de aprendizaje lineal
30 épocas de entrenamiento
Soporte para Safetensors
Compatibilidad con TensorBoard

Casos de uso

Respuesta a preguntas
Asistentes virtuales
Motores de búsqueda
Sistemas de soporte al cliente