imdb-spoiler-robertaOrigDatasetLR1

Zritze
Clasificación de texto

Este modelo es una versión ajustada de FacebookAI/roberta-base en el dataset None. Logra los siguientes resultados en el conjunto de evaluación: Pérdida: 0.5854, Precisión: 0.7275, Recuperación: 0.7025, Precisión: 0.7395, F1: 0.7205. Más información necesaria sobre la descripción del modelo.

Como usar

La siguiente configuración de hiperparámetros se utilizó durante el entrenamiento:

- learning_rate: 1e-05
- train_batch_size: 8
- eval_batch_size: 8
- seed: 42
- optimizer: Adam con betas=(0.9,0.999) y epsilon=1e-08
- lr_scheduler_type: linear
- num_epochs: 3

Los resultados de entrenamiento y evaluación fueron los siguientes:

| Epoch | Pérdida de entrenamiento | Baja de validación | Precisión | Recuperación | Precisión | F1 |
|-------|-----------------------------|-------------------------|------------|------------|-----------|------|
| 0.12  | 0.6251                      | 0.6987                  | 0.7987     | 0.6656     | 0.7261    |
| 0.25  | 0.5877                      | 0.709                   | 0.7712     | 0.6859     | 0.7261    |
| ...   | ...                         | ...                     | ...        | ...        | ...       |
| 2.88  | 0.4607                      | 0.5779                  | 0.7285     | 0.6945     | 0.7395    |
| 3.00  | 0.4373                      | 0.5854                  | 0.7275     | 0.7025     | 0.7205    |

Funcionalidades

Clasificación de texto
Usa transformers de Hugging Face
Compabilidad con safetensors
Generado a partir del entrenador
Compatibilidad con AutoTrain
Compatibilidad con Endpoints de Inferencia
Licencia MIT

Casos de uso

Clasificación de reseñas de películas para determinar spoilers
Análisis de sentimiento en textos
Moderación de contenido para identificar posibles spoilers