DistilBERT base sin mayúsculas afinado SST-2
distilbert
Clasificación de texto
Este modelo es un punto de control afinado de DistilBERT-base-uncased, afinado en SST-2. Este modelo alcanza una precisión del 91.3 % en el conjunto de desarrollo (para comparar, la versión bert-base-uncased de Bert alcanza una precisión del 92.7 %).
Como usar
Ejemplo de clasificación de etiqueta única:
import torch
from transformers import DistilBertTokenizer, DistilBertForSequenceClassification
tokenizer = DistilBertTokenizer.from_pretrained("distilbert-base-uncased-finetuned-sst-2-english")
model = DistilBertForSequenceClassification.from_pretrained("distilbert-base-uncased-finetuned-sst-2-english")
inputs = tokenizer("Hola, mi perro es lindo", return_tensors="pt")
with torch.no_grad():
logits = model(**inputs).logits
predicted_class_id = logits.argmax().item()
model.config.id2label[predicted_class_id]
Funcionalidades
- Clasificación de texto
- Transformers
- PyTorch
- TensorFlow
- Rust
- ONNX
- Safetensors
- Precisión del 91.3 % en el conjunto de desarrollo
- Licencia Apache-2.0
Casos de uso
- Clasificación de temas
- Modelado de lenguaje enmascarado
- Predicción de la siguiente oración
- Tareas de clasificación específicas