salt_language_Classification

yigagilbert
Clasificación de texto

Este modelo es una versión afinada de google/t5-efficient-tiny en el conjunto de datos generator. Este modelo se usa para la clasificación de textos, aprovechando la arquitectura de los Transformers. Alcanza los siguientes resultados en el conjunto de evaluación: Pérdida: 0.0615, Exactitud: 0.9782, Precisión: 0.9787, Recuerdo: 0.9782, F1: 0.9782.

Como usar

El modelo fue afinado utilizando los siguientes hiperparámetros:

learning_rate: 0.001
train_batch_size: 64
eval_batch_size: 64
seed: 42
optimizer: Adam con betas=(0.9,0.999) y epsilon=1e-08
lr_scheduler_type: linear
lr_scheduler_warmup_steps: 10
training_steps: 20000

Los resultados del entrenamiento son:

| Epoch | Step | Validation Loss | Accuracy | Precision | Recall | F1 | |-------|-------|-----------------|----------|-----------|--------|----| | 0.025 | 500 | 0.4979 | 0.8733 | 0.9001 | 0.8733 | 0.8714 | | 0.05 | 1000 | 0.1886 | 0.9345 | 0.9354 | 0.9345 | 0.9345 | ...

Para utilizar este modelo, puede seguir estos pasos:

from transformers import AutoModelForSequenceClassification, AutoTokenizer

model_name = 'google/t5-efficient-tiny'
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForSequenceClassification.from_pretrained(model_name)

inputs = tokenizer('I like you. I love you', return_tensors='pt')
outputs = model(**inputs)
logits = outputs.logits

Funcionalidades

Clasificación de textos
Entrenado con el conjunto de datos generator
Afinado sobre google/t5-efficient-tiny
Basado en la biblioteca Transformers
Resultados de evaluación elevados

Casos de uso

Clasificación de sentimientos en textos
Categorización de contenido generado por usuarios
Identificación de temas en documentos largos
Filtrado de spam y contenido inapropiado