imdb-spoiler-robertaOrigDatasetLR1
Zritze
Clasificación de texto
Este modelo es una versión ajustada de FacebookAI/roberta-base en el dataset None. Logra los siguientes resultados en el conjunto de evaluación: Pérdida: 0.5854, Precisión: 0.7275, Recuperación: 0.7025, Precisión: 0.7395, F1: 0.7205. Más información necesaria sobre la descripción del modelo.
Como usar
La siguiente configuración de hiperparámetros se utilizó durante el entrenamiento:
- learning_rate: 1e-05
- train_batch_size: 8
- eval_batch_size: 8
- seed: 42
- optimizer: Adam con betas=(0.9,0.999) y epsilon=1e-08
- lr_scheduler_type: linear
- num_epochs: 3
Los resultados de entrenamiento y evaluación fueron los siguientes:
| Epoch | Pérdida de entrenamiento | Baja de validación | Precisión | Recuperación | Precisión | F1 |
|-------|-----------------------------|-------------------------|------------|------------|-----------|------|
| 0.12 | 0.6251 | 0.6987 | 0.7987 | 0.6656 | 0.7261 |
| 0.25 | 0.5877 | 0.709 | 0.7712 | 0.6859 | 0.7261 |
| ... | ... | ... | ... | ... | ... |
| 2.88 | 0.4607 | 0.5779 | 0.7285 | 0.6945 | 0.7395 |
| 3.00 | 0.4373 | 0.5854 | 0.7275 | 0.7025 | 0.7205 |
Funcionalidades
- Clasificación de texto
- Usa transformers de Hugging Face
- Compabilidad con safetensors
- Generado a partir del entrenador
- Compatibilidad con AutoTrain
- Compatibilidad con Endpoints de Inferencia
- Licencia MIT
Casos de uso
- Clasificación de reseñas de películas para determinar spoilers
- Análisis de sentimiento en textos
- Moderación de contenido para identificar posibles spoilers