detección de idioma afinada en xlm-roberta-base
ivanlau
Clasificación de texto
Este modelo es una versión afinada de xlm-roberta-base en el conjunto de datos common_language. Logra los siguientes resultados en el conjunto de evaluación: Pérdida: 0.1886 Exactitud: 0.9738
Como usar
### Hiperparámetros de Entrenamiento
Los siguientes hiperparámetros fueron utilizados durante el entrenamiento:
- tasa de aprendizaje: 3e-05
- tamaño del batch de entrenamiento: 1
- tamaño del batch de evaluación: 1
- semilla: 42
- optimizador: Adam con betas=(0.9,0.999) y epsilon=1e-08
- tipo de scheduler de tasa de aprendizaje: lineal
- pasos de warmup del scheduler de tasa de aprendizaje: 500
- número de épocas: 1
- entrenamiento de precisión mixta: AMP nativo
### Resultados del Entrenamiento
- Pérdida de Entrenamiento
- Época
- Paso
- Pérdida de Validación
- Exactitud
### Versiones de Frameworks
- Transformers 4.12.5
- Pytorch 1.10.0+cu111
- Datasets 1.15.1
- Tokenizers 0.10.3
Funcionalidades
- Clasificación de texto
- Compatible con Transformers
- Utiliza PyTorch
- Resultados de evaluación generados a partir de Trainer
- Compatible con AutoTrain
- Compatible con Endpoints de Inferencia
- Licencia MIT
Casos de uso
- Detección de idioma en textos
- Clasificación de segmentos de texto en diferentes idiomas
- Aplicaciones que requieren identificación rápida del idioma de entrada