ruRoberta-large-RuCoLa-v1
s-nlp
Clasificación de texto
Este es un modelo ruRoberta-large entrenado en el conjunto de datos RuCoLa. Puede ser utilizado para clasificar oraciones rusas en fluentes o no fluentes, donde la fluidez se entiende como aceptabilidad lingüística.
Como usar
Parámetros de entrenamiento:
- Optimizador: Adam
- lr=2e-6
- batch_size=32
- epochs=10
- clip_grad_norm=1.0
# Ejemplo de uso del modelo
from transformers import AutoTokenizer, AutoModelForSequenceClassification
tokenizer = AutoTokenizer.from_pretrained('s-nlp/ruRoberta-large-RuCoLa-v1')
model = AutoModelForSequenceClassification.from_pretrained('s-nlp/ruRoberta-large-RuCoLa-v1')
inputs = tokenizer('Ты мне нравишься. Я тебя люблю', return_tensors='pt')
outputs = model(**inputs)
Funcionalidades
- Clasificación de texto
- Compatibilidad con Transformers
- Compatibilidad con PyTorch
- Uso de Safetensors
- Entrenado en ruso
- Compatible con AutoTrain
- Compatible con Endpoints de Inferencia
Casos de uso
- Clasificación de oraciones rusas como fluidas o no fluidas
- Evaluación de la aceptabilidad lingüística de textos en ruso
- Implementación en aplicaciones que requieren verificación de la fluidez del lenguaje