distilbert-base-uncased-finetuned-squad
toorgil
Pregunta y respuesta
Este modelo es una versión ajustada de distilbert-base-uncased en un conjunto de datos desconocido. No hay suficiente información sobre los datos de entrenamiento y evaluación, ni sobre los usos previstos y limitaciones. El modelo alcanza una pérdida de 5.4253 en el conjunto de evaluación.
Como usar
Para usar este modelo en Hugging Face, puedes usar el siguiente código en Python:
from transformers import DistilBertForQuestionAnswering, AutoTokenizer
model_name = 'toorgil/distilbert-base-uncased-finetuned-squad'
model = DistilBertForQuestionAnswering.from_pretrained(model_name)
tokenizer = AutoTokenizer.from_pretrained(model_name)
question, text = '¿Cuál es el propósito de este modelo?', 'El modelo distilbert-base-uncased ha sido ajustado para tareas de respuesta de preguntas.'
inputs = tokenizer(question, text, return_tensors='pt')
outputs = model(**inputs)
El modelo no tiene suficiente actividad para ser desplegado en la API de Inferencia aún. Incrementa su visibilidad social y vuelve a revisarlo más tarde, o despliega en Puntos de Inferencia dedicados.
Funcionalidades
- Aprendizaje supervisado
- Ajuste fino en distilbert-base-uncased
- Optimización con Adam
- Programación de tasa de aprendizaje lineal
- 30 épocas de entrenamiento
- Soporte para Safetensors
- Compatibilidad con TensorBoard
Casos de uso
- Respuesta a preguntas
- Asistentes virtuales
- Motores de búsqueda
- Sistemas de soporte al cliente