XLM_RoBERTa-Detección-de-Lenguaje-Ofensivo-8-idiomas-nuevo

christinacdl
Clasificación de texto

Este modelo es una versión ajustada de xlm-roberta-large en un conjunto de datos desconocido. Está diseñado para la detección de lenguaje ofensivo en ocho idiomas diferentes.

Como usar

A continuación se muestran los hiperparámetros utilizados durante el entrenamiento:

- learning_rate: 1e-05
- train_batch_size: 16
- eval_batch_size: 16
- seed: 42
- gradient_accumulation_steps: 2
- total_train_batch_size: 32
- optimizer: Adam con betas=(0.9,0.999) y epsilon=1e-08
- lr_scheduler_type: linear
- num_epochs: 4

Resultados del entrenamiento

  • Pérdida: 0.8276
  • Micro F1: 0.8721
  • Macro F1: 0.8604
  • Precisión: 0.8721

Versiones del framework

  • Transformers 4.36.1
  • Pytorch 2.1.0+cu121
  • Datasets 2.13.1
  • Tokenizers 0.15.0

Funcionalidades

Detección de lenguaje ofensivo
Compatible con Hugging Face Transformers
Soporte para múltiples idiomas
Resulta en métricas de evaluación como Pérdida, Micro F1, Macro F1, y Precisión
Compatibilidad con AutoTrain

Casos de uso

Filtrado de contenido ofensivo en redes sociales
Monitoreo de comentarios abusivos en plataformas en línea
Análisis de opiniones y toxicidad en foros y blogs