distilbert-base-uncased-finetuned-sst-2-english-int8-static-inc

Intel
Clasificación de texto

Este modelo es una versión de DistilBERT afinada para la tarea de clasificación de sentimiento, entrenada en el conjunto de datos SST-2 y cuantificada a INT8 (cuantificación estática post-entrenamiento) desde el modelo original FP32 (distilbert-base-uncased-finetuned-sst-2-english). El mismo modelo se proporciona en dos formatos diferentes: PyTorch y ONNX.

Como usar

Cargar el modelo PyTorch con Optimum Intel:

from optimum.intel.neural_compressor import INCModelForSequenceClassification

model_id = "Intel/distilbert-base-uncased-finetuned-sst-2-english-int8-static"
int8_model = INCModelForSequenceClassification.from_pretrained(model_id)

Cargar el modelo ONNX con Optimum:

from optimum.onnxruntime import ORTModelForSequenceClassification

model_id = "Intel/distilbert-base-uncased-finetuned-sst-2-english-int8-static"
int8_model = ORTModelForSequenceClassification.from_pretrained(model_id)

Funcionalidades

Clasificación de texto
Transformers
PyTorch
ONNX
sst2
distilbert
text-classification
int8
Intel® Neural Compressor
PostTrainingStatic

Casos de uso

Inferencia para clasificación de sentimientos (clasificar si una declaración es positiva o negativa)