distilbert-base-uncased-finetuned-sst-2-english-int8-static-inc
Intel
Clasificación de texto
Este modelo es una versión de DistilBERT afinada para la tarea de clasificación de sentimiento, entrenada en el conjunto de datos SST-2 y cuantificada a INT8 (cuantificación estática post-entrenamiento) desde el modelo original FP32 (distilbert-base-uncased-finetuned-sst-2-english). El mismo modelo se proporciona en dos formatos diferentes: PyTorch y ONNX.
Como usar
Cargar el modelo PyTorch con Optimum Intel:
from optimum.intel.neural_compressor import INCModelForSequenceClassification
model_id = "Intel/distilbert-base-uncased-finetuned-sst-2-english-int8-static"
int8_model = INCModelForSequenceClassification.from_pretrained(model_id)
Cargar el modelo ONNX con Optimum:
from optimum.onnxruntime import ORTModelForSequenceClassification
model_id = "Intel/distilbert-base-uncased-finetuned-sst-2-english-int8-static"
int8_model = ORTModelForSequenceClassification.from_pretrained(model_id)
Funcionalidades
- Clasificación de texto
- Transformers
- PyTorch
- ONNX
- sst2
- distilbert
- text-classification
- int8
- Intel® Neural Compressor
- PostTrainingStatic
Casos de uso
- Inferencia para clasificación de sentimientos (clasificar si una declaración es positiva o negativa)