XLM_RoBERTa-Detección-de-Lenguaje-Ofensivo-8-idiomas-nuevo
christinacdl
Clasificación de texto
Este modelo es una versión ajustada de xlm-roberta-large en un conjunto de datos desconocido. Está diseñado para la detección de lenguaje ofensivo en ocho idiomas diferentes.
Como usar
A continuación se muestran los hiperparámetros utilizados durante el entrenamiento:
- learning_rate: 1e-05
- train_batch_size: 16
- eval_batch_size: 16
- seed: 42
- gradient_accumulation_steps: 2
- total_train_batch_size: 32
- optimizer: Adam con betas=(0.9,0.999) y epsilon=1e-08
- lr_scheduler_type: linear
- num_epochs: 4
Resultados del entrenamiento
- Pérdida: 0.8276
- Micro F1: 0.8721
- Macro F1: 0.8604
- Precisión: 0.8721
Versiones del framework
- Transformers 4.36.1
- Pytorch 2.1.0+cu121
- Datasets 2.13.1
- Tokenizers 0.15.0
Funcionalidades
- Detección de lenguaje ofensivo
- Compatible con Hugging Face Transformers
- Soporte para múltiples idiomas
- Resulta en métricas de evaluación como Pérdida, Micro F1, Macro F1, y Precisión
- Compatibilidad con AutoTrain
Casos de uso
- Filtrado de contenido ofensivo en redes sociales
- Monitoreo de comentarios abusivos en plataformas en línea
- Análisis de opiniones y toxicidad en foros y blogs