DistilBERT base sin mayúsculas ajustado en SST-2 cuantificado dinámicamente

echarlaix
Clasificación de texto

Este modelo es un DistilBERT afinado en SST-2 y cuantificado dinámicamente con Optimum-Intel a través del uso de Intel® Neural Compressor.

Como usar

Esto requiere instalar Optimum:

pip install optimum[neural-compressor]

Para cargar el modelo cuantificado y ejecutar la inferencia usando las canalizaciones de Transformers, puedes hacer lo siguiente:

from transformers import AutoTokenizer, pipeline
from optimum.intel import INCModelForSequenceClassification

model_id = "echarlaix/distilbert-base-uncased-finetuned-sst-2-english-int8-dynamic"
model = INCModelForSequenceClassification.from_pretrained(model_id)
tokenizer = AutoTokenizer.from_pretrained(model_id)
cls_pipe = pipeline("text-classification", model=model, tokenizer=tokenizer)
text = "He's a dreadful magician."
outputs = cls_pipe(text)

Funcionalidades

Clasificación de texto
Transformers
PyTorch
sst2
glue
Modelo dinamicamente cuantificado
Precisión de 8 bits
Puntos de inferencia

Casos de uso

Clasificación de textos