Intel/distilbert-base-uncased-squadv1.1-sparse-80-1x4-block-pruneofa

Intel
Pregunta y respuesta

DistilBERT es un modelo más pequeño de BERT diseñado para tareas de respuesta a preguntas y clasificación de texto. Este modelo específico está optimizado usando una técnica de poda para reducir su tamaño y hacerlo más eficiente.

Como usar

Este modelo puede ser desplegado usando los Endpoints de Inferencia dedicados en Hugging Face. A continuación hay un ejemplo de cómo usar este modelo:

import transformers

# cargar el modelo y el tokenizador
model_name = 'Intel/distilbert-base-uncased-squadv1.1-sparse-80-1x4-block-pruneofa'
tokenizer = transformers.AutoTokenizer.from_pretrained(model_name)
model = transformers.AutoModelForQuestionAnswering.from_pretrained(model_name)

# ejemplo de uso
question = '¿Qué es distilbert?'
context = 'DistilBERT es un modelo más pequeño de BERT.'

inputs = tokenizer.encode_plus(question, context, return_tensors='pt')
outputs = model(**inputs)
answer_start_scores = outputs.start_logits
answer_end_scores = outputs.end_logits

print(answer_start_scores, answer_end_scores)

Funcionalidades

Optimizado para respuesta a preguntas
Modelo más pequeño y eficiente que BERT
Usa una técnica de poda para mejorar el rendimiento

Casos de uso

Responder preguntas
Clasificación de texto
Implementaciones que requieren modelos eficientes en cuanto a tamaño y rendimiento