DistilBERT base sin mayúsculas ajustado en SST-2 cuantificado dinámicamente
echarlaix
Clasificación de texto
Este modelo es un DistilBERT afinado en SST-2 y cuantificado dinámicamente con Optimum-Intel a través del uso de Intel® Neural Compressor.
Como usar
Esto requiere instalar Optimum:
pip install optimum[neural-compressor]
Para cargar el modelo cuantificado y ejecutar la inferencia usando las canalizaciones de Transformers, puedes hacer lo siguiente:
from transformers import AutoTokenizer, pipeline
from optimum.intel import INCModelForSequenceClassification
model_id = "echarlaix/distilbert-base-uncased-finetuned-sst-2-english-int8-dynamic"
model = INCModelForSequenceClassification.from_pretrained(model_id)
tokenizer = AutoTokenizer.from_pretrained(model_id)
cls_pipe = pipeline("text-classification", model=model, tokenizer=tokenizer)
text = "He's a dreadful magician."
outputs = cls_pipe(text)
Funcionalidades
- Clasificación de texto
- Transformers
- PyTorch
- sst2
- glue
- Modelo dinamicamente cuantificado
- Precisión de 8 bits
- Puntos de inferencia
Casos de uso
- Clasificación de textos