salt_language_Classification
Este modelo es una versión afinada de google/t5-efficient-tiny en el conjunto de datos generator. Este modelo se usa para la clasificación de textos, aprovechando la arquitectura de los Transformers. Alcanza los siguientes resultados en el conjunto de evaluación: Pérdida: 0.0615, Exactitud: 0.9782, Precisión: 0.9787, Recuerdo: 0.9782, F1: 0.9782.
Como usar
El modelo fue afinado utilizando los siguientes hiperparámetros:
learning_rate: 0.001
train_batch_size: 64
eval_batch_size: 64
seed: 42
optimizer: Adam con betas=(0.9,0.999) y epsilon=1e-08
lr_scheduler_type: linear
lr_scheduler_warmup_steps: 10
training_steps: 20000
Los resultados del entrenamiento son:
| Epoch | Step | Validation Loss | Accuracy | Precision | Recall | F1 |
|-------|-------|-----------------|----------|-----------|--------|----|
| 0.025 | 500 | 0.4979 | 0.8733 | 0.9001 | 0.8733 | 0.8714 |
| 0.05 | 1000 | 0.1886 | 0.9345 | 0.9354 | 0.9345 | 0.9345 |
...
Para utilizar este modelo, puede seguir estos pasos:
from transformers import AutoModelForSequenceClassification, AutoTokenizer
model_name = 'google/t5-efficient-tiny'
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForSequenceClassification.from_pretrained(model_name)
inputs = tokenizer('I like you. I love you', return_tensors='pt')
outputs = model(**inputs)
logits = outputs.logits
Funcionalidades
- Clasificación de textos
- Entrenado con el conjunto de datos generator
- Afinado sobre google/t5-efficient-tiny
- Basado en la biblioteca Transformers
- Resultados de evaluación elevados
Casos de uso
- Clasificación de sentimientos en textos
- Categorización de contenido generado por usuarios
- Identificación de temas en documentos largos
- Filtrado de spam y contenido inapropiado