DistilBERT base sin mayúsculas afinado SST-2

distilbert
Clasificación de texto

Este modelo es un punto de control afinado de DistilBERT-base-uncased, afinado en SST-2. Este modelo alcanza una precisión del 91.3 % en el conjunto de desarrollo (para comparar, la versión bert-base-uncased de Bert alcanza una precisión del 92.7 %).

Como usar

Ejemplo de clasificación de etiqueta única:

import torch
from transformers import DistilBertTokenizer, DistilBertForSequenceClassification


tokenizer = DistilBertTokenizer.from_pretrained("distilbert-base-uncased-finetuned-sst-2-english")
model = DistilBertForSequenceClassification.from_pretrained("distilbert-base-uncased-finetuned-sst-2-english")

inputs = tokenizer("Hola, mi perro es lindo", return_tensors="pt")
with torch.no_grad():
    logits = model(**inputs).logits

predicted_class_id = logits.argmax().item()
model.config.id2label[predicted_class_id]

Funcionalidades

Clasificación de texto
Transformers
PyTorch
TensorFlow
Rust
ONNX
Safetensors
Precisión del 91.3 % en el conjunto de desarrollo
Licencia Apache-2.0

Casos de uso

Clasificación de temas
Modelado de lenguaje enmascarado
Predicción de la siguiente oración
Tareas de clasificación específicas