detección de idioma afinada en xlm-roberta-base

ivanlau
Clasificación de texto

Este modelo es una versión afinada de xlm-roberta-base en el conjunto de datos common_language. Logra los siguientes resultados en el conjunto de evaluación: Pérdida: 0.1886 Exactitud: 0.9738

Como usar

### Hiperparámetros de Entrenamiento

Los siguientes hiperparámetros fueron utilizados durante el entrenamiento:

- tasa de aprendizaje: 3e-05
- tamaño del batch de entrenamiento: 1
- tamaño del batch de evaluación: 1
- semilla: 42
- optimizador: Adam con betas=(0.9,0.999) y epsilon=1e-08
- tipo de scheduler de tasa de aprendizaje: lineal
- pasos de warmup del scheduler de tasa de aprendizaje: 500
- número de épocas: 1
- entrenamiento de precisión mixta: AMP nativo

### Resultados del Entrenamiento

- Pérdida de Entrenamiento
- Época
- Paso
- Pérdida de Validación
- Exactitud

### Versiones de Frameworks

- Transformers 4.12.5
- Pytorch 1.10.0+cu111
- Datasets 1.15.1
- Tokenizers 0.10.3

Funcionalidades

Clasificación de texto
Compatible con Transformers
Utiliza PyTorch
Resultados de evaluación generados a partir de Trainer
Compatible con AutoTrain
Compatible con Endpoints de Inferencia
Licencia MIT

Casos de uso

Detección de idioma en textos
Clasificación de segmentos de texto en diferentes idiomas
Aplicaciones que requieren identificación rápida del idioma de entrada