Intel/distilbert-base-uncased-squadv1.1-sparse-80-1x4-block-pruneofa
Intel
Pregunta y respuesta
DistilBERT es un modelo más pequeño de BERT diseñado para tareas de respuesta a preguntas y clasificación de texto. Este modelo específico está optimizado usando una técnica de poda para reducir su tamaño y hacerlo más eficiente.
Como usar
Este modelo puede ser desplegado usando los Endpoints de Inferencia dedicados en Hugging Face. A continuación hay un ejemplo de cómo usar este modelo:
import transformers
# cargar el modelo y el tokenizador
model_name = 'Intel/distilbert-base-uncased-squadv1.1-sparse-80-1x4-block-pruneofa'
tokenizer = transformers.AutoTokenizer.from_pretrained(model_name)
model = transformers.AutoModelForQuestionAnswering.from_pretrained(model_name)
# ejemplo de uso
question = '¿Qué es distilbert?'
context = 'DistilBERT es un modelo más pequeño de BERT.'
inputs = tokenizer.encode_plus(question, context, return_tensors='pt')
outputs = model(**inputs)
answer_start_scores = outputs.start_logits
answer_end_scores = outputs.end_logits
print(answer_start_scores, answer_end_scores)
Funcionalidades
- Optimizado para respuesta a preguntas
- Modelo más pequeño y eficiente que BERT
- Usa una técnica de poda para mejorar el rendimiento
Casos de uso
- Responder preguntas
- Clasificación de texto
- Implementaciones que requieren modelos eficientes en cuanto a tamaño y rendimiento