distilbert-base-uncased-Tweet_About_Disaster_Or_Not
Este modelo es una versión ajustada de distilbert-base-uncased en el conjunto de datos Ninguno. Es un modelo de clasificación binaria para determinar si las muestras de tweets son sobre un desastre o no. Para obtener más información sobre cómo se creó, consulte el siguiente enlace: [enlace al proyecto](https://github.com/DunnBC22/NLP_Projects/blob/main/Binary%20Classification/Transformer%20Comparison/Is%20This%20Tweet%20Referring%20to%20a%20Disaster%20or%20Not%3F%20-%20DistilBERT.ipynb). El modelo logra los siguientes resultados en el conjunto de evaluación: Pérdida: 0.2557, Precisión: 0.9138, F1: 0.7752, Recall: 0.8204, Precisión: 0.7348.
Como usar
Este modelo de clasificación binaria puede ser utilizado para determinar si un tweet se refiere a un desastre o no. Las siguientes hiperparámetros se usaron durante el entrenamiento:
* learning_rate: 2e-05
* train_batch_size: 64
* eval_batch_size: 64
* seed: 42
* optimizer: Adam con betas=(0.9,0.999) y epsilon=1e-08
* lr_scheduler_type: linear
* num_epochs: 5
Los resultados del entrenamiento fueron:
Pérdida de entrenamiento:
Época: 1.0, Paso: 143, Pérdida de validación: 0.2855, Precisión: 0.8989, F1: 0.7404, Recall: 0.7961, Precisión: 0.6920
Época: 2.0, Paso: 286, Pérdida de validación: 0.2558, Precisión: 0.8927, F1: 0.7382, Recall: 0.8350, Precisión: 0.6615
Época: 3.0, Paso: 429, Pérdida de validación: 0.2557, Precisión: 0.9138, F1: 0.7752, Recall: 0.8204, Precisión: 0.7348
Época: 4.0, Paso: 572, Pérdida de validación: 0.2773, Precisión: 0.9138, F1: 0.7742, Recall: 0.8155, Precisión: 0.7368
Época: 5.0, Paso: 715, Pérdida de validación: 0.3008, Precisión: 0.9147, F1: 0.7760, Recall: 0.8155, Precisión: 0.7401
Funcionalidades
- Clasificación de textos binaria
- Entrenado con transformadores
- Compatibilidad con PyTorch
- Soporte para TensorBoard
Casos de uso
- Detección de tweets relacionados con desastres
- Kaggle
- Demostración de la habilidad para resolver problemas complejos usando tecnología